Publiée une fois par année, la Revue électronique suisse de science de l'information (RESSI) a pour but principal le développement scientifique de cette discipline en Suisse.
Présentation de la revue
Contenu du site
Se connecter
Publié par Ressi
Une bibliothécaire et une stagiaire bibliothécaire au pays des volcans
Ressi — 29 mars 2006
Céline Bize, Haute Ecole de Gestion, Genève
Résumé
Une bibliothecaire et une stagiaire bibliothecaire au pays des volcans
Introduction
trop de récits d'aventures…
peut-être est-ce la fenêtre ouverte
du service de prêt et renseignements de la Médiathèque Valais…
je suis partie loin, longtemps…
(Rosemarie Fournier)
Tout a commencé un jour d'automne 1998 à Bienne. Là se trouve Cinfo http://www.cinfo.ch/, centre d'information, de conseil et de formation sur les professions de la coopération internationale et de l'aide humanitaire. Cinfo organise périodiquement des journées d'information destinées aux personnes intéressées par une expérience de travail à l'étranger. Mon mari et moi avons assisté à l'une des ces journées et avons ainsi fait la connaissance d'E-Changer http://www.e-changer.ch/. Nous avons été immédiatement séduits par sa philosophie, par le sérieux de la préparation au départ et du suivi sur le terrain.
Mouvement d'envoi de volontaires au Sud, plus particulièrement en Amérique latine, E-Changer a son siège à Fribourg, Suisse. Son activité principale est la formation et l'accompagnement de personnes qui s'engagent pour une expérience de vie dans un pays où leurs compétences professionnelles et personnelles peuvent appuyer un projet. C'est avec eux que nous sommes partis trois ans en Bolivie et que nous avons signé un nouveau contrat pour deux ans à Managua, Nicaragua.
Nous avons mis sur pied un groupe de soutien à notre projet. C'est une exigence d'E-Changer: le travail de fourmi que nous accomplissons au Sud doit être relayé en Suisse. Ce groupe de soutien est constitué de toutes les personnes -connues ou inconnues- qui ont envie de suivre notre travail et d'en savoir plus sur un pays qu'ils ne visiteront peut-être jamais. Nous l'avons appelé "hormiga", qui veut dire "fourmi" en espagnol. Pourquoi? Parce qu'une fourmi toute seule ne peut pas faire grand-chose mais mettez-en quelques centaines ensemble et vous verrez qu'elles sont capables de changer leur monde! Le travail d'information et de sensibilisation se fait à travers de notre site Internet www.hormiga.ch, d'articles d'information dans différents médias et de lettres circulaires adressées aux membres.
Les bibliothèques des pays en voie de développement
Vous pouvez bien l'imaginer: une bibliothèque bolivienne ou nicaraguayenne n'a pas grand-chose à voir avec ses homologues helvétiques. La plupart du temps, les livres sont rares, obsolètes, en mauvais état. Les bibliothécaires sont peu ou pas formés. Les locaux sont vieillots, petits, mal adaptés. Le public est rare… Quant la propre bibliothèque nationale d'un pays n'a AUCUN budget d'acquisitions, on peut imaginer à quel point la situation est grave. Il y a heureusement quelques exceptions. A Managua, par exemple, la Banque centrale (el Banco Central) a sa propre bibliothèque qui ferait bonne figure dans une ville européenne: catalogue en ligne, libre-accès, collections actualisées http://biblioteca.bcn.gob.ni/. L'arbre qui cache la forêt…
La coopération internationale, pourtant très active dans le domaine de l'éducation, appuie très peu de projets bibliothéconomiques. Pourquoi? Il serait intéressant de faire une étude sur ce thème. Personnellement, je pense que les bibliothèques du Sud souffrent d'un manque de visibilité. Elles ne sont pas reconnues par les instances qui gèrent l'aide au développement. Il faut dire à leur décharge que le thème n'est pas très spectaculaire et que personne ne souligne son importance. Les bibliothécaires du Nord ont certainement une part de responsabilité dans cette indifférence. Il n'est pas dans leur tradition de collaborer et d'appuyer leurs collègues moins bien lotis.
Mon travail en Bolivie (1)…
Mon premier contact avec une bibliothèque bolivienne fut à Tarija, au centre pour enfants handicapés où mon mari appuyait l'équipe éducative. Ce centre possède une petite bibliothèque de quelque 200 titres sur les thèmes de l'éducation spécialisée et du handicap. Même les étudiants de la Faculté de psychologie ou ceux de l'Ecole normale viennent consulter ces livres car nulle part ailleurs à Tarija, ville de 150'000 habitants, on n'en trouve l'équivalent. La Bibliothèque municipale de Tarija n'a ni catalogue, ni budget d'acquisitions, ni service de prêt. En Bolivie, si un lecteur ne rend pas un livre emprunté, on retient le prix dudit livre sur le salaire du bibliothécaire. La photocopie est une véritable industrie: faute d'argent pour acheter les livres, on les photocopie à tour de bras dans l'une des nombreuses officines qui entourent chaque université. Le piratage est également florissant. Comment les blâmer? Quand plus de 60% de la population est en dessous du seuil de pauvreté (moins de deux dollars par jour), l'achat d'un livre est simplement impossible.
J'ai collaboré de manière bénévole à différents projets de bibliothèques, à Tarija et à La Paz. Je me suis heurtée à chaque fois au manque crucial de moyens matériels. Même l'achat de crayons, de papier ou d'étiquettes peut se révéler problématique. Par bonheur, la motivation et l'envie d'en savoir plus ne coûtent rien. Le personnel de ces bibliothèques m'a toujours accueillie avec enthousiasme. Il m'a fallu du temps pour comprendre leur situation. Je découvrais une nouvelle réalité, celle d'un pays tellement pauvre que le moindre bout de papier prenait de la valeur. Paradoxalement, pour pouvoir leur offrir mon aide, je me suis appuyée sur eux. C'est ensemble que nous avons cherché des solutions raisonnables pour améliorer leur bibliothèque. Bien sûr, il y eut des moments de découragement, des désillusions, des déceptions… Le plus difficile pour moi, ce fut peut-être la force d'inertie de certains organismes ou de certaines personnes et le temps fou que prend l'accomplissement de la moindre tâche. Ma notion du temps et celle des Boliviens ne se sont jamais bien accordées, malgré tous nos efforts.
Durant mon séjour bolivien, j'estime avoir reçu bien plus qu'apporté, tant du point de vue professionnel que personnel. J'ai appris à exercer mon métier de manière différente et j'ai appris que le cœur peut plus que la raison. Je garde un souvenir lumineux de ces trois années au pays des lamas.
… et au Nicaragua
J'étais encore en Bolivie quand j'ai entendu parler d'un poste de coopérante au Nicaragua. Premiers contacts électroniques avec la directrice, premiers échanges de vue, premiers rêves… L'idée s'est avérée irrésistible, la réalité aussi. A la fin de notre contrat, nous avons fait escale à Managua avant de rentrer en Suisse afin d'examiner de près le projet et le lieu de vie. La décision fut vite prise: après la Bolivie , vive le Nicaragua !
María de los Ángeles Chirino Ramos , la directrice de la bibliothèque et archives de l'IHNCA (2), que nous appelons familièrement Marielos, se désespérait de trouver un jour une bibliothécaire coopérante pour former son personnel. Elle est cubaine et vit au Nicaragua depuis une vingtaine d'années. C'est la seule personne diplômée en bibliothéconomie de l'institut et elle se rend parfaitement compte de l'importance d'une formation. Elle m'a donc accueillie à bras ouverts. C'est ainsi que, depuis janvier 2005, je me rends chaque jour à la Universidad Centroamericana où se trouve l'IHNCA, Instituto Histórico de Nicaragua y Centroamérica . Mon travail porte essentiellement sur deux axes:
- la formation en bibliothéconomie: deux heures de cours par semaine donné à tout le personnel de bibliothèque et archives, ainsi qu'un soutien plus individuel le reste du temps
- un appui en renforcement institutionnel: ce dernier s'est révélé nécessaire pour dynamiser et rationaliser les procédures de travail.
Ce projet est atypique pour différentes raisons. Normalement, la plupart des volontaires travaillent dans des milieux populaires, avec des mouvements de base, avec une population défavorisée, dans des conditions qui peuvent être difficiles. Je suis dans un institut faisant partie d'une université; mes collègues sont toutes licenciées universitaires. De plus, la plupart sont attentives à ce qui se passe dans le pays et les discussions que nous avons sont enrichissantes et éclairantes pour moi.
Autre point vital: les partenaires du sud accueillent généralement les volontaires avec beaucoup d'enthousiasme mais les problèmes ne tardent pas. Le décalage entre la description du projet et la réalité du terrain est un fait quasi incontournable et peut causer de sérieux problèmes. Rien de tel à l'IHNCA. Je me sens acceptée et reconnue. Je crois que mes collègues apprécient mes cours (du moins me le font-ils savoir à travers les évaluations). Je ne voudrais pas sembler présomptueuse mais réellement j'ai l'impression d'apporter une petite pierre utile à cet édifice.
Ce type de projet, relativement nouveau pour E-Changer, possède un potentiel de développement très important. Le fait que le partenaire sud soit aussi solide, fiable et motivé est un gage de progrès. Le fait que mes collègues soient capables de propager l'enseignement reçu est un gage de durabilité. Le fait que la direction de l'IHNCA soit convaincue de l'importance de l'apport d'une coopérante et qu'elle le valorise est un gage de succès.
Une stagiaire de la HEG à l'IHNCA
En 2004, lors de mon séjour en Suisse, j'avais signalé à la HEG que, si un(e) étudiant(e) parlant espagnol souhaitait faire son stage pratique au Nicaragua, j'étais tout à fait disposée à l'accueillir et à suivre son stage.
C'est ainsi que Céline Bize a séjourné trois mois à Managua, accomplissant son stage au sein de l'équipe de l'IHNCA. Cette expérience fut tout à fait positive. Je me sentais responsable car, après tout, c'est moi qui avais offert cette possibilité à la HEG. Par bonheur, Céline est une personne très compétente, très professionnelle. Son stage s'est bien déroulé et l'IHNCA est tout à fait prêt à examiner un autre dossier de stagiaire pour l'an prochain!
Le séjour de Céline à l'IHNCA s'inscrit parfaitement dans la philosophie de mon travail de coopérante. C'est un élément de plus dans la sensibilisation Nord-Sud. Maintenant, Céline, sa famille, ses amis, ses camarades de classe connaîtront un peu mieux la réalité nicaraguayenne.
Différence de mentalités
Dans une entrevue récente (3), une travailleuse sociale brésilienne qui collabore avec E-Changer donnait une réponse intéressante à la question de savoir ce qui avait attiré son attention lors de son voyage en Suisse:
"En premier lieu, j'ai découvert la frénésie helvétique. Ici tout est très rapide. Les heures sont millimétriquement calculées. L'horloge fonctionne intensément. Tout est très méthodique et j'ai pu constater l'attention énorme au travail dans les endroits où je me suis rendue. Les Suisses sont très objectifs et sérieux. Comprendre ce rythme a été un apprentissage important. J'ai été très étonnée de la relation des gens avec le temps. Je l'ai ressenti par moments comme quelque chose de stressant. J'ai senti parfois le risque que la qualité de vie soit menacée par le fait de courir et de courir. Le temps conditionne tout. Une certaine rigidité des corps, la tension de l'embrassade comme salutation, si on s'embrasse..."
De quoi faire réfléchir, non? Depuis que je vis dans le Sud, j'ai eu maintes occasions de constater à quel point nos priorités diffèrent. Si pour nous, l'heure est sacro-sainte, ici c'est la rencontre. Donc, si je suis avec un ami et que l'heure tourne, ce n'est pas grave. Si j'arrive en retard (ou pas du tout) à mon prochain rendez-vous, tant pis. L'important, c'est ici et maintenant. A la bibliothèque, cela se traduit par des piles de livres partout, des plans de travail annuels qui ressortent plus du domaine du rêve que de la réalité, un flou dans les procédures de travail qui ferait le désespoir de n'importe quelle direction de bibliothèque suisse. Comment trouver ma place là-dedans? Je l'avoue, j'ai souffert et je souffre encore! Les mots clés sont s'adapter et relativiser. S'adapter à une autre culture et arriver à se fondre dans le paysage sans perdre ses propres repères. Il ne s'agit pas d'effacer ce qui fait ma différence mais de faire en sorte qu'elle cohabite le plus harmonieusement possible avec l'autre. Relativiser est aussi essentiel: est-ce vraiment si important si le tableau des statistiques du prêt n'est pas d'une clarté éblouissante? Ce qui compte, c'est que l'on mette sur pied des statistiques, même si elles ne sont pas parfaites. La comparaison entre là-bas et ici est stérile, la transposition impossible. C'est ce qui fait toute la richesse du défi: inventer quelque chose de nouveau en s'appuyant sur une expérience professionnelle acquise dans des conditions totalement différentes, et en tenant compte d'une réalité à mille lieues de la Suisse.
Efficacité et rendement
La quantité de travail accomplie ici ne peut en aucun cas se référer aux normes suisses. Tout prend tellement de temps! La faute à la bureaucratie que l'on retrouve partout. Un exemple: si je veux disposer du beamer le vendredi après-midi pour mon cours, je dois faire à chaque fois une demande écrite au moyen d'un formulaire ad hoc. Je l'envoie par courrier électronique et de plus j'en apporte une copie imprimée, signée, au responsable du service informatique. Quelqu'un viendra tout exprès installer et désinstaller le beamer (chose que je pourrais très bien faire moi-même). Le temps passé à ce genre d'exercice et la paperasse accumulée (on ne jette rien) font que le rendement est assez bas.
La difficulté à rationaliser les procédures de travail est réelle. Je suis chargée de l'appui à la réalisation d'un manuel de procédures. On m'avait dit qu'il était déjà quasiment terminé et qu'il manquait juste le peaufinage de quelques détails. Nous sommes en décembre et il n'est toujours pas fini… C'est un peu ma faute: mes suggestions de simplification et de rationalisation de certaines tâches ont demandé une longue réflexion. C'est un peu leur faute aussi: il est très difficile de prendre des décisions relatives à la politique de la bibliothèque et de s'y tenir. On décide que l'IHNCA est une bibliothèque de consultation, sans prêt à domicile, mais on multiplie les exceptions; la finance d'inscription est de 10 dollars mais c'est vraiment "à la tête du client" et au bon vouloir de la direction. On ne s'en sort plus. Toutefois il faut souligner qu'un manuel de procédures est encore quelque chose de relativement nouveau au Nicaragua. C'est tout à l'honneur de l'IHNCA de vouloir se doter d'un tel instrument de travail.
Mieux vaut en rire
L'humour est un support de premier plan dans la rencontre des cultures. Il aide à éviter les frictions. Si on parvient à rire de ses propres travers, on se gagne déjà un grand capital de sympathie. Quand mes collègues me mettent en boîte à propos de ma ponctualité jamais en faille, je me sens acceptée, reconnue dans ma différence.
L'humour est un excellent instrument de travail dans la coopération. On ne sait jamais comment quelqu'un prendra une remarque ou une critique même constructive. Il y a toujours le risque de tomber dans le stéréotype de l'étranger qui sait (normal, il vient d'un pays développé ) et qui a la bonté de faire bénéficier l'indigène de ses connaissances. Une manière d'éviter cette attitude paternaliste, c'est de ne pas se prendre trop au sérieux.
L'enseignement peut être très vertical dans ce pays. C'est quelque chose de sérieux, qui ne laisse pas beaucoup de place à l'élève. La pédagogie du prof-qui-sait et de l'élève-qui-écoute-et-apprend est encore très utilisée. Une de mes "élèves" m'a dit un jour qu'elle appréciait le fait de pouvoir dire une "bêtise" pendant mes cours, sans avoir peur que je me fâche. Cela m'a conforté dans ma conviction de laisser les cours ex-cathedra au vestiaire et de me lancer à fond dans les cours participatifs, multipliant les travaux de groupe, les présentations d'élèves, les jeux de rôle… Je ne finirai peut-être pas le programme de formation prévu pour ces deux ans mais je sais que les sujets abordés seront bien assimilés.
Bilan à mi-chemin
Je suis à l'IHNCA depuis une année. Je parle de l'IHNCA en disant "nous" parce que je me considère partie prenante de cette institution. Je prends chaque jour comme il vient, sans essayer de voir plus loin que le prochain cours ou la prochaine réunion de travail. Même si j'ai un plan de travail à suivre, j'apprends l'improvisation. Je perds chaque jour un peu plus de ma "raideur suisse". Je me surprends même à arriver en retard, c'est dire. Le climat de Managua y contribue certainement. La chaleur intense, la touffeur des jours, l'humidité ambiante durant la saison des pluies… c'est tout simplement impossible de garder le même rythme de travail qu'au Nord.
En 2006, je poursuivrai ma tâche: former mes collègues et collaborer au renforcement de l'institution. Si les catastrophes naturelles nous épargnent, si les élections présidentielles se déroulent sans émeutes, si l'université continue à financer l'IHNCA, si tout va bien, je terminerai mon contrat en décembre 2006. Je rentrerai en Suisse avec un bagage professionnel et personnel bien plus lourd que celui que j'avais en arrivant. J'aurai sûrement encore bien d'autres choses à vous raconter… En attendant, je passe le clavier à Céline Bize, afin qu'elle vous conte son expérience !
Rosemarie Fournier, décembre 2005
Notes
(1) Voir Lire, mais en Bolivie / Rosemarie Fournier. - Arbido, 2003, vol. 18, no 9, pp. 25 - 26.
(2) Institut d'histoire du Nicaragua et d'Amérique centrale (Managua)
(3) Una mirada a la cooperación suiza con ojos del sur / Sergio Ferrari. - Nov.2005
L'IHNCA
L'Institut d'histoire du Nicaragua et d'Amérique centrale à Managua est une institution de l'Université d'Amérique centrale (UCA) consacrée à la recherche, la diffusion de l'histoire et la gestion du patrimoine documentaire. Sa mission est de produire et de délivrer des connaissances nouvelles sur l'histoire du Nicaragua et de l'Amérique centrale; préserver, enrichir et diffuser le patrimoine culturel en appliquant les technologies de l'information et de la communication (TIC). Pour cela, il promeut la recherche et l'échange académique; il développe de nouvelles méthodes d'enseignement de l'histoire; il organise des cours, conférences et expositions; il publie des textes et des revues spécialisées et gère des fonds documentaires.
L'IHNCA possède une bibliothèque et un centre d'archives importants. Les collections furent initiées à partir de 1934 par les Jésuites. Il s'agissait de rassembler la documentation existante sur l'histoire du Nicaragua et de l'Amérique centrale. Cette tâche fut spécialement difficile dans un pays régulièrement dévasté par des révolutions, des guerres, des tremblements de terre, des inondations et autres catastrophes. Actuellement, l'Institut détient des livres, documents manuscrits, périodiques, cartes, photographies, vidéos, microfilms, cassettes sonores... Il possède même une importante collection de céramique précolombienne, de masques et de peintures. Le catalogue d'une partie de ces fonds est automatisé et consultable en ligne.
Tu pars au Nicaragua?
Novembre 2004, je rentre chez moi d'une journée de cours à la Haute École de gestion de Genève , où j'étudie en filière information documentaire. Dans le train, une de mes camarades me demande : «Alors Céline, tu vas faire ton stage au Nicaragua?». Je ne comprends pas sa question… je n'ai pas encore vu l'e-mail qui nous annonce qu'une bibliothécaire suisse qui part pour deux ans au Nicaragua est d'accord d'accueillir un/e stagiaire, mais mes amis savaient déjà que je serais intéressée. Aimant les voyages et ayant déjà l'idée dans un coin de ma tête de participer un jour à un projet de coopération, je me dis que c'est une occasion unique qui se présente à moi. Mon stage ne me permettrait pas seulement de mettre en pratique les connaissances acquises durant les deux premières années de mes études, mais aussi de me confronter à une réalité professionnelle différente de celle que je pourrais trouver en Suisse et de découvrir une nouvelle région du monde.
Septembre 2005, l'atterrissage est plutôt difficile. Quatre jours après la fin des examens, je me trouve loin de chez moi, dans un pays que je ne connais pas. Toutefois, je trouve tout de suite un environnement familier dans la bibliothèque et l'accueil est chaleureux. Après une semaine d'introduction où j'ai l'occasion de visiter tous les services, il est temps de commencer les tâches qui m'ont été confiées.
Recherches sur Internet
Une partie de mon activité a consisté à faire des recherches sur Internet pour élaborer un guide de ressources utiles aux utilisateurs mais aussi aux bibliothécaires qui sont peu habitués à utiliser Internet. Mes recherches se sont effectuées sur deux axes: des ressources utiles pour le personnel des services au public et d'autres ayant pour thème la bibliothéconomie. Je me suis vite rendu compte des difficultés qu'un tel travail peut comporter dans un pays comme le Nicaragua. La mauvaise connexion à Internet et certains ordinateurs obsolètes ont rendu le travail plus compliqué que prévu.
J'ai aussi été confrontée à un problème de langue. En effet, la plupart des bibliothécaires de l'Institut ne maîtrisent pas l'anglais. Il y a donc des ressources auxquelles ils ont plus difficilement accès. Cela a particulièrement été le cas dans le domaine de la bibliothéconomie. Il existe un certain nombre de portails consacrés à ce thème en espagnol, mais parfois même sur des sites hispanophones, tous les liens renvoient à des ressources en anglais. Je trouve aussi dommage que, par exemple, le portail de l'UNESCO pour les bibliothèques ne propose pas une version en espagnol.
A ces difficultés s'ajoute un sentiment de frustration, celui de ne pas pouvoir proposer un autre type de ressources qui pourraient être très utiles. En effet, durant la deuxième année de cours, nous avons appris à utiliser les bases de données commerciales. Il est évident qu'ici, il est impossible de pouvoir se les offrir. C'était donc à chaque fois une déception quand je tombais sur le site d'une banque de données ou d'un périodique électronique intéressant mais coûteux. Heureusement, les ressources non payantes se développent, comme les archives ouvertes ou les périodiques électroniques gratuits. Il y a aussi des bases de données bibliographiques gratuites mais dans ce cas la difficulté est de fournir le document lui-même. Il existe par exemple un projet d'archives ouvertes pour l'Amérique latine mais, malheureusement, il n'en est qu'à l'état de test pour le moment. Il faut donc apprendre à prendre son temps et oublier nos standards européens. Lors de mon travail, je me suis aussi demandé à quel point les ressources trouvées peuvent être utilisées. Parfois la connexion à Internet est tellement lente que l'on peut rapidement se décourager.
La collection Dariana
L'autre moitié de mon travail a consisté à corriger le catalogage de la collection «Dariana», selon les normes AACR2. La bibliothèque possède en effet une bonne partie des œuvres de et sur Rubén Darío, grand poète nicaraguayen. Je devais donc, à partir de l'inventaire de la collection, vérifier le catalogage de chaque ouvrage, lui attribuer des descripteurs pris dans une liste restreinte et lui allouer une cote basée sur la classification Dewey. Je devais aussi compléter certains champs non remplis ou encore assigner un numéro de registre, unique pour chaque exemplaire. Il fallait aussi vérifier que la même édition ne fasse pas l'objet de deux notices catalographiques, ce qui était parfois le cas quand l'ouvrage se trouvait dans plusieurs fonds. Il s'est avéré que certains livres n'avaient pas leur place dans la collection, comme par exemple les textes écrits par les fils et petit-fils de Darío. Dans ce cas, ils ont été sortis de la collection et intégrés dans un autre fonds. Dewey, AACR2 sont autant de points de repère , même loin de chez soi. L'utilisation de normes et de standards ne permet pas seulement un meilleur échange de données, mais aussi de se retrouver en milieu familier, même dans un environnement très différent et de pouvoir pratiquer ce que j'ai appris en Suisse au Nicaragua. Par contre, j'ai eu quelques problèmes avec CDS/ISIS, le logiciel utilisé pour le catalogue. L'interface est peu conviviale et il m'a fallu du temps pour maîtriser certaines fonctions.
Petit bilan
Lors de ce stage, j'ai pu mettre en pratique mes connaissances en matière de recherche sur Internet et faire profiter la bibliothèque de ma plus grande habitude de l'utilisation de cet outil. Évidement, le travail que j'ai effectué n'est qu'un point de départ. Les documents que j'ai rédigés sont amenés à évoluer, au fur et à mesure que de nouvelles sources apparaissent ou que d'autre disparaissent.
Sur un plan personnel, cela m'a permis de faire des découvertes, tant sur le domaine Amérique latine que dans le domaine de la bibliothéconomie, autant de ressources qui pourront m'être utiles dans le futur. Toutefois, ce travail m'a demandé beaucoup de patience, qui n'est normalement pas une de mes qualités, et de flexibilité. J'ai aussi eu la satisfaction d'avoir assez de temps pour terminer les tâches qui m'avaient été confiées, aussi bien pour le guide de ressources que pour la collection Dariana , qui est maintenant entièrement recataloguée.
En prenant la décision de partir au Nicaragua, mon but n'était pas seulement centré sur la pratique professionnelle ; je souhaitais évidemment aussi découvrir une autre partie du monde et pratiquer une langue étrangère. J'ai pu faire un peu mieux connaissance avec la réalité nicaraguayenne en voyageant dans le pays, en lisant la presse quotidienne et en assistant à des conférences sur des thèmes d'actualité. Il n'est pas impossible que dans quelques années, je parte pour un projet de coopération quelque part dans le monde, mais je ressens aussi le besoin d'acquérir de l'expérience en Suisse, pour pouvoir ensuite en faire bénéficier d'autres personnes. Une chose est sûre, cette aventure m'a renforcée dans le choix de ma formation. En effet, dans un contexte où l'accès aux ressources documentaires est rendu plus difficile pour plusieurs raisons (financière, linguistique, technique...), je me rends mieux compte de l'importance du rôle que les professionnels doivent jouer pour faciliter l'accès à l'information.
Je garderai un bon souvenir de mes collègues et de l'ambiance de cette bibliothèque, même si pour moi, trois mois ont été trop courts pour m'intégrer complètement dans ce pays si différent. Toutefois, je resterai attentive aux événements et à l'évolution de ce coin du monde.
Étudiante de 3e année
Haute École de gestion (Genève)
Filière Information documentaire
Décembre 2005
Congrès Online information 2005: la montée en puissance des réseaux sociaux
Ressi — 29 mars 2006
Hélène Madinier, Haute Ecole de Gestion, Genève
Ariane Rezzonico, Haute Ecole de Gestion, Genève
Congres Online information 2005 : La montée en puissance des réseaux sociaux
Le congrès Online Information 2005, qui s'est tenu du 29 novembre au 1 er décembre, pour sa trentième édition, a rassemblé quelque 775 délégués d'une quarantaine de pays, et plus de 9700 visiteurs autour de 250 exposants.
Comme les années précédentes, plus de 30 conférences et une centaine de séminaires en libre accès (free seminars) en marge de l'exposition ont été organisés.
Donc une assez bonne tenue par rapport à Online 2004 ; même si les éditeurs scientifiques, au niveau de l'exposition sont surreprésentés.
Plusieurs grandes tendances se dégagent:
- l'importance des réseaux sociaux dans l'information, illustrée par la vogue des outils comme les wikis et les blogs, auxquels était consacrée toute une session;
- la démocratisation de la recherche et ses conséquences ;
- la participation des professionnels de l'information à la gestion de l'information dans l'organisation, qui a fait l'objet d'une session entière (track «managing enterprise content») pendant les 3 jours du congrès.
On décrira ici l'évolution des outils de recherche, les wikis et les blogs, et des exemples particulièrement intéressants de gestion de l'information et d'innovation dans des bibliothèques, illustrant la nécessaire évolution des rôles des professionnels de l'information.
Mais tout d'abord, il nous paraît important de rendre compte de la conférence d'ouverture, donnée par David Weinberger, professeur-chercheur associé au centre Berkman d'études sur Internet et la société, centre rattaché à la faculté de droit de Harvard. (1)
Sa conférence, intitulée « the shape of knowledge- everything is miscellaneous » a esquissé quelques grandes tendances, non sans provocation.
On en citera deux:
- Les gens cherchent par eux-mêmes, ils n'ont plus besoin d'intermédiaires ; les professionnels de l'information doivent décidément abandonner l'idée de servir de filtres. Même si leur façon de rechercher n'est pas toujours adéquate, les travailleurs du savoir trouvent grosso modo ce qu'ils cherchent: « pretty good is good enough ».
S'il est indéniable que les utilisateurs recherchent eux-mêmes l'information, que les experts connaissent les sources fiables, et qu'il faut revoir le rôle de l'intermédiaire en conséquence, n'a-ton pas intérêt ici à aller à contre-courant de cette tendance et à démontrer l'importance de la validation de l'information ? Il y a eu ici des objections de l'assistance, remarquant que l'on ne peut se satisfaire d'informations non validées dans les domaines scientifiques, juridiques etc…, domaines dans lesquels la validation de l'information est parfois vitale…
Cette tendance a parfois été confirmée par plusieurs intervenants qui citaient des utilisateurs pensant que « si l'information n'est pas sur Google, c'est qu'elle n'existe pas ».
- C'est le partage de connaissances qui crée de nouvelles connaissances, c'est via les connexions humaines, l'interaction, favorisées par les nouveaux outils comme les wikis et les blogs. On travaille maintenant de plus en plus selon un mode social, de «peer to peer», de réseaux sociaux.
Cette dernière tendance s'est trouvée dans les faits confirmée par plusieurs conférences :
Que ce soit des réalisations basées sur des blogs et des wikis, des systèmes de gestion de contenu (CMS) et de gestion des connaissances (KM), toutes ces initiatives ont en commun une forte composante communautaire, sociale, et on verra la place que peuvent y trouver des professionnels de l'information.
Outil de recherche, wikis et blogs
Outils de recherche
Les grands moteurs de recherche, à savoir « The Big4 » (comprenant Yahoo, MSN, Google et Ask), évoluent vers des applications offrant de plus en plus de services personnalisés. Si jusqu'à présent, la taille des index était un critère discriminant dans le choix d'un moteur, on remarque qu'actuellement la concurrence se joue sur la recherche verticale (segmentée par domaine ou par champ), la catégorisation des résultats ou encore l'intégration de contenus. Google multiplie les applications comme Google Base, Google Books, Google Blog Search, etc. Yahoo a développé une version beta d'un outil Yahoo Mindset (2) qui offre la possibilité d'orienter les résultats selon leur nature commerciale ou non. Cette fonctionnalité (que l'on utilise en positionnant un curseur) permet de choisir ce que l'on souhaite privilégier comme type d'information et les résultats seront issus de sources plus académiques ou institutionnelles. Yahoo propose depuis quelques temps la recherche de podcast dans une version beta (3). Cette nouvelle application permet de récupérer des fichiers audio ou vidéo et de les télécharger sur son baladeur numérique ou de les consulter directement sur son ordinateur.
Ask (4) offre de nouvelles possibilités permettant d'étendre ou de restreindre les résultats d'une recherche. Quant à la recherche sur ses propres fichiers (desktop search), tous les grands outils affinent leurs fonctionnalités mais la protection des données n'est pas garantie, particulièrement dans le cas de Google qui garde une copie des fichiers même si ceux-ci ont été effacés sur son ordinateur.
Les wikis
L'apport des wikis dans le monde professionnel est de plus en plus important. Un wiki permet à un groupe un travail collaboratif. Si les wikis se sont révélés très utiles pour publier des guides de voyages, des dictionnaires ou des encyclopédies, leur usage est de plus en plus répandu que ce soit sur un intranet ou sur internet. En gestion de projet, le wiki permet de publier des documents, de les mettre à jour, de les corriger et de conserver toutes les versions antérieures. On peut également utiliser un wiki pour planifier un travail. Le wiki ne nécessite pas d'application coûteuse et complexe et remplace parfois des échanges de courriers électroniques au sein des entreprises. Son utilisation ne requiert pas de compétences particulières de la part des collaborateurs. Toutefois, l'implantation et la mise en œuvre demandent des aptitudes en informatique pour choisir un outil de création et maintenir le fonctionnement du wiki. Si l'on ne veut pas créer son propre serveur on peut utiliser des serveurs externes qui offrent gratuitement ou non les logiciels ainsi que l'hébergement de l'application. Le contenu non structuré du wiki se distingue des pages structurées de l'intranet et il est important de définir clairement les usages propres à chacun.
Quant à Wikipedia, le wiki le plus connu, son créateur Jimmy Wales a présenté son fonctionnement et la manière dont sont assurées la gouvernance et la vérification du contenu des articles. Selon Jimmy Wales, la gouvernance de Wikipedia est « un mélange de consensus, de démocratie, d'aristocratie et de monarchie ». Beaucoup de rédacteurs sont étudiants et un nouveau sujet est vérifié à travers le « Google Test ». Ce test effectué sur Google permet de vérifier l'existence d'un thème. S'il n'y a pas de réponse, les experts considèrent que le sujet ne doit pas figurer dans l'encyclopédie .
Les blogs et la blogosphère
Cette année, une session entière leur était consacrée et des expériences originales ont été présentées tant dans l'enseignement supérieur, dans les entreprises ou dans les medias. La simplicité pour le mettre en œuvre, la création de communautés, la visibilité et le partage d'information sont les points forts des blogs. L'accroissement du nombre de blogs va se poursuivre et Technorati (5) (outil de recherche et de création) offre l'accès à plus de 25 millions de blogs.
Le quotidien anglais « The Guardian » propose une quarantaine de blogs à ses lecteurs. Il est certain que l'usage des blogs leur a permis de mieux présenter des informations par l'ajout de photos, de vidéos, de podcast, etc. Les lecteurs sont invités à participer à ces blogs en insérant leurs commentaires ou en partageant des analyses d'événements avec les journalistes. Tous les domaines couverts par le Guardian sont représentés : les sports, les jeux, les actualités, la culture, la politique, etc. Les quarante blogs du Guardian ont déjà généré plus de 85000 commentaires. Les lecteurs ont également la possibilité de réagir entre eux à des informations trouvées sur les blogs. On retrouve dans ces usages la notion de réseau social qui est le point fort de ces nouvelles applications. L'introduction des blogs a aidé le Guardian à mieux restituer des informations et à créer un véritable contenu multimédia.
Une autre illustration de l'usage des blogs a été présentée par l'entreprise IBM. IBM a choisi d'utiliser le blog comme moyen de communication avec ses collaborateurs et ses clients. Tout collaborateur peut animer son blog pour autant qu'il ne divulgue pas d'informations confidentielles ou nuisant à l'entreprise. IBM a mis en place des procédures destinées à accompagner la création des blogs. Ceux-ci peuvent être professionnels ou non. Certains blogs d'IBM ont une orientation marketing permettant aux consommateurs de s'informer sur les produits et de les commenter. D'autres blogs sont internes à l'entreprise et permettent l'échange d'information entre experts. Ils sont utilisés comme outil de Knowledge Management. Des développeurs partagent leurs recherches et la collaboration entre équipes s'en trouve renforcée. IBM recense environ 12000 blogueurs dans plus de 70 pays. Que ce soit en gestion de projet, en veille ou en KM, la simplicité de gestion du blog liée à la possibilité d'archiver les informations publiées, voire d'en syndiquer une partie offre aux collaborateurs des entreprises une source d'information inépuisable.
La gestion de l'information dans les organisations
Plusieurs expériences de gestion d'information dans les organisations ont été relatées.
Les noms de ces réalisations sont bien sûr tous différents mais il est frappant de constater que la démarche ainsi que les facteurs de succès et d'échec et les enseignements à en tirer sont souvent très proches. Ici encore, on constate l'importance des réseaux sociaux.
Certaines réalisations sont basées sur des portails. Dans tous les cas, il s'agit de mieux gérer les informations internes ou externes.
Il y a autant de spécialistes de portails que de définitions précises (6), mais on peut cependant considérer qu'un portail est un cadre supportant des sites Intranet, Internet, et Extranet; il intègre des applications et des processus à l'intérieur et au-delà des frontières de l'organisation.
On rendra compte des quatre exemples suivants (7) :
- Le choix d'un système de gestion du contenu (CMS) à l'Université de Reading, au Royaume-Uni
- La mise en œuvre d'un portail à l'université d'Utrecht, aux Pays-Bas
- La reconception du portail de gestion de contenu à TDC cable TV, au Danemark
- La mise en œuvre d'un système de gestion des connaissances à Swiss Re, Zurich
1. L'équipe de projet de l'Université de Reading devait convaincre la direction de choisir un CMS, d'élaborer l'appel d'offres et de procéder à sa mise en œuvre, sachant que coexistaient des centaines de contributeurs en interne avec des compétences techniques variables, un grand nombre de sites Web: plus de 64 000 pages de contenu et plus de 80 serveurs Web, le tout sans coordination centrale, ni stratégie de contenu.
La mise en œuvre du nouvel outil s'est accompagnée de la rédaction de guides de réutilisation du contenu et de guides de style de contenu à l'intention des différents contributeurs.
Une grande part de succès réside dans la «politique»: la nécessité de communiquer, de recueillir l'adhésion, de convaincre les sceptiques. Pour cela, il faut créer des comités avec des experts internes, recruter des consultants, faire des liens avec la stratégie d'entreprise, et faire un audit des contenus.
Il est aussi utile de choisir un site-pilote (ici le site de recrutement pour étudiants postgrades), permettant de tester la technologie, le personnel et les processus.
Dans l'appel d'offres, il est essentiel de ne pas trop détailler, de donner des scénarios d'utilisation du système, et d'indiquer clairement les exigences essentielles.
Pour le choix, il faut définir des critères pondérés de technologies, d'usage, et de processus, et demander des démonstrations des scénarios.
Même si cette présentation était davantage axée sur la façon de choisir, elle insistait néanmoins sur:
- l'accompagnement nécessaire de ces choix, en amont et en aval, permettant d'aboutir à terme à une réelle coordination de l'information externe.
- L'importance de réaliser ce travail en équipe: en l'occurrence il était mené par le service de la communication, avec contribution des systèmes d'information, de la bibliothèque, et des représentants des étudiants.
2. la mise en œuvre d'un portail à l'université d'Utrecht, aux Pays-Bas devait permettre d'avoir accès à l'Intranet, à toutes les ressources électroniques de l'université, à la messagerie et aux applications de gestion, au travers un seul cadre et une seule authentification (single sign-on). Ce dernier aspect n'est pas encore mis en œuvre, de même que l'intégration d'applications trop différentes. Il faut noter qu'il a fallu convaincre tous les départements de son utilité.
Enseignements tirés par l'équipe de projet :
- Un portail a besoin d'une application à très forte valeur ajoutée (killer application) pour justifier les coûts; à Utrecht, cela a été le cas pour l'accès aux ressources offertes par la bibliothèque,
- Le fait que les divers utilisateurs ou groupes d'utilisateurs puissent personnaliser leurs accès, et notamment les intranets de communautés, facilement modulables, est un facteur de succès décisif.
3. La chaîne câblée danoise TDC a fait une première expérience de portail malheureuse, dont elle a tiré les enseignements.
Elle avait choisi un CMS pas encore mûr technologiquement, le projet était mené par le service informatique, qui communiquait peu.
La solution n'a pas correspondu aux attentes. Le projet a donc été re-ciblé, en l'ancrant beaucoup plus sur les besoins des utilisateurs, en communiquant mieux et en élargissant l'équipe éditoriale.
Leur mot d'ordre: « Penser grand mais commencer petit »
4. Enfin, Swiss Re, une grande compagnie de réassurance basée à Zurich compte environ 9000 employés répartis sur une trentaine de localisations dans le monde, et a mis en place un projet de KM visant à gérer la surcharge informationnelle.
L'équipe de projet a recueilli les besoins et les a agrégés sous différents axes: par sujet, par fonction, organisationnel et géographique, puis a créé deux plateformes :
- Les réseaux de connaissances ou knowledge networks, qui comportent des bases de données, des actualités utiles à l'organisation, des outils de gestion de contenu et visent à créer et échanger des connaissances sur des sujets stratégiques et constituent ainsi des réseaux d'experts dans toute l'organisation;
- Les pages de communautés, qui offrent également des bases de données et des actualités, mais aussi des accès à des informations et applications internes; ces pages présentent l'intérêt d'être gérées par les communautés spécifiques, qui décident elles-mêmes ce qu'elles souhaitent traiter; ce sont des plateformes self-service, prêtes à l'emploi (portlets: mini-portails pré-définis), et qui forment des intranets de communautés.
Parmi les facteurs de succès :
- le soutien du top management et la forte implication des knowledge managers
- l'importance des sujets qui doivent relever des tâches quotidiennes
On peut identifier des points récurrents au travers ces 4 exemples :
- la nécessité de communiquer sans cesse pour réussir (les 3 premiers projets);
- la coordination des communautés d'utilisateurs: on rejoint ici ce qui était annoncé comme une tendance forte en conférence d'ouverture: les utilisateurs savent chercher eux-mêmes, mais ils ont besoin d'outils spécifiques, de taxonomies, de coordination, (cf les 2 derniers projets). C'est un rôle qui peut être assumé par des professionnels de l'information.
L'évolution du rôle des professionnels de l'information: «Des collections aux connexions»
Plusieurs communications et ateliers portaient (comme souvent à Online) sur la nécessaire évolution du rôle du professionnel de l'information, mais un récit d'expérience est apparu comme exemplaire: la transformation du rôle des bibliothèques des Nations Unies à New York (8).
Exemplaire dans le processus de changement, et exemplaire du rôle d'animation souligné plus haut.
Linda Stoddart, responsable de la bibliothèque centrale des Nations Unies (Dag Hammarskjöld Library) et du groupe de travail «knowledge sharing» a tout d'abord expliqué que la bibliothèque était en quelque sorte acculée au changement : les départs n'étaient plus remplacés, les budgets coupés, et ses services de moins en moins utilisés.
Bref, c'était changer ou disparaître.
En 2004, une nouvelle structure a été mise en place avec un groupe de travail de knowledge sharing, lançant une série d'initiatives qui ont transformé peu à peu les bibliothèques, qui d'une approche orientée processus ont développé une approche orientée conseil et coaching.
Ses objectifs :
- encourager le partage des connaissances en créant des réseaux entre les collaborateurs
- fournir un support personnalisé
Son mot d'ordre: «From collections to connections».
Il s'agit donc de passer d'un modèle de constitution de collections à un modèle de service, de connexion: connexions entre les documents et les utilisateurs, entre les documents et les fonctions, et entre les utilisateurs eux-mêmes.
Ce changement a pu s'opérer en élaborant une stratégie, en la communiquant aussi bien en direction du personnel que de la hiérarchie, en utilisant un petit groupe d'agents du changement et en formant intensivement les collaborateurs des bibliothèques. Il s'est concrétisé dans de nouvelles activités :
- la responsabilité de l'Intranet général des Nations Unies, confiée à la bibliothèque par le Secrétaire Général adjoint
- le PKM ou Personal Knowledge management: c'est un support personnalisé aux utilisateurs: grâce à leurs connaissances des outils technologiques et des sources d'information, des collaborateurs des bibliothèques ont développé une activité de conseil et de coach auprès de l'ensemble des collaborateurs, menée en coordination avec le service des systèmes d'information.
Cela n'a certes pas été sans mal dans une institution aussi bureaucratique que l'ONU: la culture centralisée, hiérarchique, la lourdeur des procédures et la résistance au changement ont constitué de réels obstacles. En ce sens, la communication de messages positifs, la promotion de la nouvelle image, des nouvelles activités, et la mise en valeur des succès ont contribué à vaincre ces résistances.
Mais depuis deux ans, les bibliothèques de l'ONU ont beaucoup gagné en visibilité et elles ont désormais une meilleure image dans l'organisation.
Les professionnels de l'information assument ici des rôles de consultants, d'interprètes, d'animateurs de réseaux, rôles qui favorisent le partage des connaissances et l'apprentissage organisationnel.
NOTES
(1) http://cyber.law.harvard.edu/home/david_weinberger
(2) http://mindset.research.yahoo.com/
(3) http://podcasts.yahoo.com/
(4) http://www.ask.com
(5) >http://www.technorati.com/
(6) Cf présentation de Janus Boye du 1.12.2005: Portals: from idea to reality - the dangers of the current state of portals in the marketplace, cf programme 2005 http://www.online-information.co.uk/ol05/conferenceprogramme.html
(7) http://www.online-information.co.uk/ol05/conferenceprogramme.html
(8) « Innovation and change: transforming United Nations libraries »,, cf programme 2005 http://www.online-information.co.uk/ol05/conferenceprogramme.html
Editorial n°6
Ressi — 30 novembre 2005
Jacqueline Deschamps, Haute Ecole de Gestion, Genève
Editorial n°6
Nous avons le plaisir de vous proposer le numéro 6 de RESSI, seconde livraison de l’année 2007. Rappelons que les articles qui paraissent dans Etudes et Recherches ont été soumis à une double lecture en aveugle par des pairs et donc, respectent les règles des publications scientifiques.
Ainsi, vous pouvez lire un article d’Alain Tihon sur la présence d’attracteurs dans les systèmes informationnels. L’auteur aborde sa réflexion sur les systèmes d’information en se basant non pas sur les technologies liées au traitement des documents et de leur contenu mais plutôt en les considérant comme des systèmes complexes et vivants, alimentés par cette matière première qu’est l’information. Le second article, d’Olivier Moeschler, relate une étude sur les pratiques et les représentations des non-usagers des bibliothèques municipales à Genève. Cet article a le mérite de présenter les images positives mais aussi les images négatives associées aux bibliothèques et aux bibliothécaires.
Sous la rubrique Compte-rendu d’expérience, Florence Muet et un groupe d’étudiantes jeunes diplômées de la Haute école de gestion de Genève, nous proposent une enquête qualitative auprès des usagers des bibliothèques de la Faculté des sciences de l’Université de Genève. Outre une synthèse sur les pratiques documentaires des enseignants et des étudiants, les auteurs proposent des pistes pour structurer l’offre de service en bibliothèque académique. Dans les Evénements, nous vous proposons le compte-rendu de la 4ème Journée franco-suisse en intelligence économique et veille stratégique qui avait lieu cette année à Genève et qui nous est relatée par Françoise Simonot, Jacqueline Deschamps et François Courvoisier, les organisateurs de cette journée. Le thème de la journée, Veille et marketing a rassemblé des enseignants, des professionnels de la veille et du marketing, alternant ainsi exposés théoriques et témoignages sur des expériences du terrain.
Et sous la rubrique Ouvrages parus en science de l’information, Yves Berger a lu pour nous l’ouvrage écrit par Marie-Laurence Caron-Fasan et Nicolas Lesca sur la veille anticipative pour les entreprises. Eloi Contesse nous propose la recension d’un ouvrage en allemand de la Deutsche Unesco Kommission, disponible en ligne, sur l’open Access et tous les aspects liés à la mise en œuvre d’une stratégie open Access.
Nous remercions les auteurs qui ont contribué à ce numéro. Nos remerciements vont aussi aux membres du Comité de lecture qui s’acquittent de leur tâche avec sérieux et ponctualité, garantissant ainsi la qualité de la revue. Dans le but de nous conformer aux exigences qualitatives des articles scientifiques, nous avons accueilli récemment dans le comité de lecture plusieurs enseignants-chercheurs étrangers car, sans vouloir rivaliser avec les prestigieuses revues en science de l’information, nous tenons à ce que RESSI demeure à la hauteur de ses ambitions.
Le Comité de rédaction
N°1 janvier 2005
Ressi — 30 novembre 2005
Sommaire - N°1, Janvier 2005
Etudes et recherches :
- Pourquoi une revue suisse de science de l'information ? - Jacqueline Deschamps
- Knowledge Management et management de l’information : la dimension humaine des « communautés de pratiques » - Jean-Philippe Accart
Evénements :
- Le numérique : impact sur le cycle de vie du document - Michel Gorin
- Retours sur le colloque "Partager pour gagner" à la Haute Ecole de Gestion (HEG) de Genève, 30 septembre 2004 - Hélène Madinier
Ouvrages parus en science de l'information :
« Intelligence économique et réseaux » Compte-rendu de la 2ème journée franco-suisse en intelligence économique et veille stratégique
Ressi — 31 août 2005
Résumé
Le 16 juin 2005, s’est tenue à la Haute école de gestion Arc de Neuchâtel la deuxième journée franco-suisse en intelligence économique et veille stratégique organisée en collaboration avec la Haute école de gestion de Genève et l’IUT de Besançon en Franche-Comté.
« Intelligence économique et réseaux »
Compte-rendu de la 2ème journée franco-suisse en intelligence économique et veille stratégique
Bref historique de la manifestation
En Suisse, l’intelligence économique et la veille stratégique sont des domaines d’enseignement émergents. Rattachés généralement aux sciences de l’information et de la communication, ces domaines sont de nature interdisciplinaire et font autant appel aux concepts de la science de l’information qu’à la gestion d’entreprise et à la communication. Dans les organisations comme les entreprises et les administrations, l’intelligence économique et la veille stratégique sont discrètes pour ne pas dire « secrètes ». Par rapport à nos voisines françaises, les PME helvétiques commencent seulement à y être sensibilisées et à intégrer dans leur stratégie managériale une approche plus systématique et intégrée de la récolte et de la gestion de l’information.
En mars 2003, les Hautes écoles de gestion de Genève et de Neuchâtel, avec les professeurs Jacqueline Deschamps et François Courvoisier, en collaboration avec Alain Vaucher, de Centredoc à Neuchâtel, ont ouvert une nouvelle filière d’études postgrades HES en intelligence économique et veille stratégique, la première en Suisse romande. Rapidement, des contacts ont été établis avec Françoise Simonot, professeur responsable de la Licence veille à l’Institut universitaire de technologie de l’Université de Franche-Comté à Besançon. Par ailleurs, le docteur Pierre Achard, intervenant dans la Licence veille à Besançon est venu se joindre à notre collège de professeurs.
Il s’est rapidement avéré que les trois Hautes écoles ci-dessus avaient bien des points d’intérêts communs, des réflexions à partager tant sur le plan des thématiques que de la pédagogie, et c’est ainsi qu’a germé l’idée d’une rencontre franco-suisse. Notre intention était de montrer de manière concrète les défis, possibilités et attentes de l’intelligence économique et de la veille, grâce à des intervenants du métier, praticiens comme enseignants et chercheurs. La première journée franco-suisse a eu lieu le 17 juin 2004 à la Haute école de gestion Arc de Neuchâtel sur le thème de « Comment anticiper, comment surveiller la concurrence ». Une soixantaine de participants suisses et français, responsables en entreprises, indépendants et étudiants ont participé à cette journée avec enthousiasme, nous confortant dans l’idée que l’intelligence économique et la veille sont des thèmes d’actualité.
La 2ème journée franco-suisse « Intelligence économique et réseaux »
Forts de cette première rencontre, nous avons décidé de reconduire la formule et c’est ainsi que les mêmes partenaires se sont retrouvés pour organiser la 2ème journée franco-suisse en intelligence économique et veille stratégique sur le thème « Intelligence économique et réseaux : comment collaborer en réseau dans l’entreprise et hors de l’entreprise ». Une nouvelle fois, quelques soixante participants se sont donc retrouvés à Neuchâtel jeudi 16 juin 2005 pour suivre deux conférences le matin, des cas d’entreprises et une table ronde l’après-midi.
Sous la houlette de Stéphane Benoît-Godet, rédacteur en chef adjoint du magazine économique Bilan, c’est Philippe Clerc qui ouvre les travaux. Directeur de l’intelligence économique auprès de l’Assemblée des Chambres françaises de commerce et d’industrie, Philippe Clerc fait un exposé sur l’intelligence économique et les réseaux institutionnels, en se basant sur sa longue expérience de l’intelligence économique et ses travaux qui l’ont amené à faire des études comparatives entre la France, la Grande-Bretagne, le Québec ou encore l’Indonésie. Par réseaux institutionnels, il faut entendre les institutions qui participent aux réseaux, c’est le point de vue de l’entreprise sous l’angle de l’entreprise étendue, posture déclarative sur l’efficacité issue de la collaboration en réseau. Nous sommes dans l’ère des réseaux, c’est un thème d’actualité, plus encore lorsqu’il s’agit d’intelligence économique.
La réalité des dispositifs nationaux ou locaux d’innovation est constituée et se développe dans un entrelacs de réseaux formels et informels. Philippe Clerc distingue les réseaux à liens forts produisant des signaux forts partagés sur le métier, les cultures et les rites (souvent des sources personnelles informelles) et les réseaux à liens faibles produisant des signaux faibles (souvent issus de la documentation spécialisée ou de l’administration). Une étude canadienne remet d’ailleurs en cause la croyance selon laquelle il y aurait prédominance des réseaux à liens forts et signaux forts et démontre la valeur ajoutée qu’apportent les réseaux à liens faibles.
Mais Philippe Clerc remarque que l’Etat français structure le corps social depuis le 17ème siècle avec l’obsession de la coordination qui en arrive à devenir une fin en soi : il faut passer d’une culture de silos à une culture de réseaux. Dans la seconde partie de son exposé, Philippe Clerc illustre ses propos par des exemples divers. Le Royaume Uni, dans son modèle d’intelligence économique d’Etat est très présent sur les dispositifs de réseaux d’excellence à composante institutionnelle. C’est un ensemble de réseaux qui possède une base de données avec une banque de cas de bonnes pratiques concurrentielles et de compétitivité. Avec l’exemple de la coopération franco-indonésienne, notre conférencier montre comment des stratégies d’influence basées sur l’exportation du savoir-faire de veille et d’intelligence économique peut servir de levier au développement des exportations. La diaspora des étudiants indonésiens venus étudier en France joue un rôle essentiel en appliquant les méthodes et les outils étudiés au cours de leurs études au contexte local. Avec l’exemple québécois, nous avons un cas de réseau gouvernemental de veille intégrée sur les politiques publiques de par le monde. Ainsi, les acteurs peuvent identifier, en un laps de temps assez court, les changements pour informer les décideurs. La motivation est aussi de proposer une vision commune entre les ministères et de positionner la stratégie de chaque réseau institutionnel. C’est grâce à quelque cinq cents veilleurs-coodinateurs travaillant sur des cibles sectorielles et des cibles de réseau, que l’on voit une réelle volonté de coopération.
Le second conférencier est Christian Marcon, maître de conférences à l’Institut de la communication et des nouvelles technologies de l’Université de Poitiers, sur le thème de l’intelligence économique et les réseaux relationnels. Ce thème est étudié depuis plusieurs années par Christian Marcon et son collègue Nicolas Moinet, qui ont récemment publié un ouvrage qui fait autorité en la matière[1]. Les travaux sur le réseau, outil de stratégie, sont encore peu nombreux alors que la démarche réseau s’impose d’elle-même de nos jours, car : qui peut innover seul ? qui peut encore penser que l’on peut vivre heureux en vivant caché ? L’union fait la force et si la compétence est individuelle, l’intelligence est collective, nous dit Christian Marcon. Dans l’opinion publique, le terme de réseau garde une connotation « louche » mais c’est une question d’éthique personnelle car si le réseau peut être la mafia c’est aussi l’aide sur laquelle on peut compter en cas de catastrophe.
Notre conférencier aborde ensuite le thème du réseau relationnel, espace d’intelligence économique. Le réseau c’est l’ensemble des canaux de communication existant dans un groupe et leur configuration : ce n’est pas un espace homogène support de stratégies individuelles mais c’est l’ensemble de relations, en principe durables, émergeant entre plusieurs partenaires, le plus souvent institutionnalisés, dans des alliances et ayant une finalité économique et stratégique.
Les réseaux contemporains d’intelligence économique sont les réseaux professionnels (de filières, d’associations professionnelles…) et les réseaux socioprofessionnels (famille, voisins, amis…). Le réseau relationnel c’est aussi l’ensemble de liens sociaux dont l’individu hérite ou qu’il se créé au hasard de sa vie personnelle ou professionnelle. Dans la dynamique de l’intelligence économique, c’est la facilitation du contact pour l’obtention d’information selon le concept « cure and care ».
Christian Marcon cite encore le cyber-réseau dont le maillage repose de manière déterminante sur les outils de communication issus des technologies de l’information et de la communication ce qui facilite les échanges mais aussi avec risque de paralysie stratégique. Le réseau professionnel, formel ou non a comme raison d’être sa relation directe avec l’activité professionnelle des membres quel que soit le fondement de cette relation : lobbying, dynamisation d’activité, information, apprentissage collectif et davantage de pertinence dans la prise de décision.
Selon Christian Marcon, les facteurs clés de succès du réseau sont :
- la volonté : la condition essentielle
- la raison d’être ensemble : association, etc.
- les règles du jeu : qui peut entrer, usages, langage, rythmes de fonctionnement, exclusion
- l’organisation : carnet d’adresses, etc.
- la matière à échanger : information, influence, réflexion, temps, relais, image, notoriété.
En termes stratégiques, tous les réseaux ne fonctionnent pas de la même façon ou du moins selon les mêmes ressorts stratégiques. La performance d’un réseau ne dépend pas de la taille du réseau mais du projet. Un réseau qui marche a souvent tendance au cloisonnement car « si on s’y sent bien on reste ensemble » ! A côté de cela certains réseaux sont créés par nécessité, comme par exemple un réseau bancaire. Un réseau a t-il un cycle de vie ? Sûrement, répond Christian Marcon bien que l’on n’ait pas de référence en la matière.
La deuxième partie de la journée est consacrée à la présentation de témoignages sur la manière dont le réseau est vécu et pratiqué, parfois avec ses limites, dans diverses entreprises et organisations suisses et françaises.
Les travaux sont ouverts par une présentation du nouveau cycle d’études postgrades HES en intelligence économique et veille stratégique, organisé par les Hautes écoles de gestion de Neuchâtel et de Genève. Plusieurs participants du premier cycle sont depuis peu diplômés, et l’un d’entre eux, Pierre Gfeller, présente plus tard les réseaux au sein de l’Observatoire de l’emploi. Un nouveau cycle d’études postgrades HES commencera en octobre 2005 pour s’achever en septembre 2007.
Marie Fuselier et Johanna Grombach présentent comment est mise en œuvre au Comité international de la Croix Rouge une démarche d’intelligence économique par la veille stratégique, en s’appuyant sur la gestion de l’information et en associant les thèmes stratégiques plutôt que les personnes ce qui permet à chaque employé de s’investir dans le système et de collaborer.
Marc Vuillet à Ciles, Directeur de l’Agence d’intelligence économique de Franche-Comté explique son travail avec les entreprises et comment il a pu mettre en place un dispositif d’intelligence économique collectif pour une filière industrielle. A partir de thématiques identifiées, l’information est partagée étant entendu que le veilleur, nous dit le conférencier, peut être n’importe qui.
Avec Michel Guinand, Directeur de la Fondation suisse pour les téléthèses, c’est la rencontre du réseau et du handicap. La seule possibilité de succès pour cette Fondation est le travail en réseau avec les associations de handicapés, de professionnels de la santé et des assurances sociales. Depuis quelques années, des collaborations ont été créées avec les Hautes écoles suisses.
Fabien Noir, responsable Market Intelligence et Forecasting chez Chicago Miniature Lighting, propose un retour d’expérience dans un domaine technologique spécialisé. Les objectifs du projet intelligence économique présentés par le conférencier sont au nombre de cinq :
- stratégiques (avantage concurrentiel)
- cyndiniques (protection du savoir-faire)
- marketing commercial (vente, image…)
- organisationnels (optimisation des flux d’informations internes)
- sociaux (motivation, appartenance).
L’intelligence économique est focalisée sur l’environnement économique de l’entreprise et sur la définition de thèmes clés de surveillance.
Pierre Gfeller, diplômé des études postgrades HES en intelligence économique et veille stratégique, fait part de son expérience de mise sur pied d’un processus de veille à l’Observatoire romand et tessinois de l’emploi. Il aborde divers aspects :
- De l’utilité de travailler en réseau
- Les bases du fonctionnement de l’ORTE en tant que mission, connue de tous avec des axes de travail définis en amont
- Les difficultés rencontrées : organisationnelles, le travail en lui-même, les techniques, la jeunesse de la structure qui a besoin de crédibilité.
Pour lui, le travail en réseau s’approche de l’intelligence collective.
En fin d’après-midi, Stéphane Benoît-Godet anime la table ronde, réunissant les intervenants de la journée auxquels s’est joint Stéphane Koch, président de l’Internet Society Geneva. Il propose à chaque panéliste de donner les mots clés qui caractérisent la journée. S’ensuit un échange avec l’auditoire, tous les participants à la journée s’accordant sur quelques éléments fondamentaux :
- Le réseau a une identité forte
- L’animation du réseau est problématique, il n’y a pas de solution universelle
- Le réseau, qu’il soit institutionnel ou relationnel, doit vivre et c’est un défi quasi quotidien
- Le réseau est basé sur l’humain, mais s’anime sur le principe de la bonne foi et de la volonté
- Le réseau est indéniablement associé à la stratégie que l’on poursuit et au phénomène d’influence que l’entreprise veut avoir.
Il ressort de cette deuxième journée que l’intelligence économique et la veille stratégique sont basées sur des solutions sur mesure mais dont le facteur humain est l’un des piliers sur lequel repose la réussite et la pérennité. L’entreprise ou l’organisation ne peut vivre sans réseaux, mais elle ne doit pas en être prisonnière. Le choix d’entrer dans les bons réseaux, la capacité de l’entreprise de les animer et de les utiliser dans un but stratégique est un élément fondamental de l’intelligence économique. L’aspect offensif du réseau reste encore en retrait car ce sont avant tout le travail collaboratif et le partage de l’information qui paraissent essentiels dans le processus.
Compte rendu de la journée d’étude ADBS sur la gestion de contenu
Ressi — 31 août 2005
Helène Madinier, Haute Ecole de Gestion, Genève
Compte rendu de la journée d’étude ADBS sur la gestion de contenu
Le 19 avril 2005, l’Association française des documentalistes et bibliothécaires spécialisés (l’ADBS) a organisé à Paris une journée d’étude sur la gestion de contenu. Réunissant un peu plus de 80 participants, cette journée comportait un programme varié: d’une part des interventions destinées à faire le point sur la gestion du contenu et les fonctionnalités des différents outils, et de l’autre des récits d’expériences, d’outils et de réalisations (voir le programme détaillé).
On s’attachera ici à détailler spécifiquement les interventions clarifiant les différents concepts, et à résumer sélectivement quelques récits d’expérience.
Notions théoriques : document, GED et gestion de contenu
Tout d’abord, Martine Sibertin-Blanc, responsable du département de l’information publique à la documentation française, puis Philippe Martin, consultant du Cabinet Van Dijk, ont défini dans leurs interventions les notions de document, de GED et de gestion de contenu. Il y a différentes approches de la définition du document. Le document, défini par le groupe de recherche du CNRS RTP-Doc, est à la fois une forme, un signe et un medium. C’est aussi une représentation particulière de données sur un support. On va actuellement vers des documents composites, comportant différents niveaux (structure, image/video, éléments issus de bases de données etc…)
Le document numérique, lui, peut être défini comme un ensemble constitué d’un contenu, d’une structure logique, d’attributs de présentation permettant sa représentation.
La gestion documentaire, quant à elle s’attache à traiter et stocker des documents entiers, finis, et qui, même s’ils sont électroniques, ont souvent un équivalent physique. Et c’est dans la plupart des cas cet exemplaire physique qui doit être géré.
Alors que la GED ou gestion électronique de documents, comme son nom l’indique, doit gérer des contenus électroniques -qui sont aussi des documents entiers-. Alors si ceux-ci ne le sont pas au départ, dans un système de GED, il faudra les numériser. S’ils sont le produit d’une application bureautique, il faudra définir des circuits d’acquisition pour les traiter au sein du système d’information: dans tous les cas, dans la GED, la production du document lui-même est extérieure au système d’information. Sa fabrication, sa réalisation ne font pas partie intégrante du système d’information.
Son traitement, son stockage, sa recherche et sa consultation se feront eux, dans le cadre de la GED.
Certaines propriétés du document pourront être gérées par l’outil de GED: son cycle de vie (révision, archivage, suppression), son format, son processus de validation. Mais sa fabrication reste externe.
Alors que la gestion de contenu prend en compte la fabrication du document, sa rédaction ; elle permet de construire à la volée un document pour un support bien défini (Web, Cd-Rom, papier…), à partir des éléments qui le composent: les unités d’information.
On passe ici de la gestion du document à sa réalisation. Et du document entier à l’identification des unités d’information qui le composent. Ces unités d’information deviennent ainsi des ressources que l’on peut valoriser, réutiliser sur différents supports.
C’est particulièrement utile lorsque l’on a besoin de gérer dynamiquement des documents nécessitant une mise à jour permanente, comme des sites Internet ou Intranet, et cela sur plusieurs présentations possibles (sur écran, sur téléphone portable, sur Palm).
La gestion de contenu facilite la création en séparant forme et fond, et facilite la publication en aidant à la mise en forme.
Pour illustrer ces notions, M. Sibertin-Blanc a pris comme exemple les textes créés par le site Service public.fr -section droits et démarches- (http://www.servicepublic.fr) en montrant les formulaires nécessaires à l’édition. Les textes créés, assortis de métadonnées, sont ensuite repris par la Caisse des dépôts et Consignations, organisme partenaire des collectivités territoriales, qui redirigent ce contenu vers les mairies des communes; à leur tour celles-ci réutilisent ce contenu dans leurs sites respectifs. On voit clairement ici que l’adoption d’un système de gestion de contenu peut favoriser les échanges de contenu et le partage des connaissances.
On distingue habituellement deux systèmes de gestion du contenu: le WCM et l’ECM : le Web content management, donc gestion de contenu pour site Internet, et l’Entreprise Content management ou gestion de contenu pour site Intranet.
Fonctionnalités et outils
Philippe Martin, du cabinet Van Dijk, a indiqué les fonctions essentielles en gestion de contenu. Il s’agit de la création de contenu, la validation du contenu, et la publication. Les approches possibles d’outils sont les suivantes :
- Ged avec portail
- Portail
- Solution collaborative
- Gestion de contenu orienté Web ou orienté Entreprise
En ce qui concerne les outils, on retrouve les progiciels commerciaux connus que sont Documentum (orienté GED), Vignette et Plumtree (portails), et Livelink –Opentext- (solution collaborative). Parmi les logiciels open source, en termes de gestion de contenu orientée Web, on trouve notamment:
- SPIP et SPIP Agora
- Typo 3
- Zope
- Manbo
- PHP Nuke
Il faut savoir que si les licences des logiciels libres sont gratuites, en revanche, les coûts de mise en œuvre sont importants. Pour mettre en place un système de gestion de contenu, il faut bien sûr partir d’une analyse de l’existant et des besoins, et concevoir l’organisation de la gestion avant la solution technique (qui produit ? qui valide ? quels processus ?)
Systèmes de gestion de contenu : la percée du logiciel libre
Cinq récits d’expérience ont ensuite été présentés, tous différents.
M6 utilise l’outil commercial Jalios pour son site Web.
Pour le réseau des chambres de commerce et d’industrie, c’est l’outil collaboratif ZOPE, logiciel libre, qui a été choisi, pour homogénéiser et centraliser l’accès aux services de 180 CCI indépendantes à travers un portail commun.
Le centre d’information sur l’Europe, Sources d’Europe, a choisi le logiciel libre Typo3 pour le site sur la constitution européenne. Ce site a pu être mise en œuvre dans des délais très courts, notamment grâce au recours à un prestataire (c’est-à-dire un intermédiaire, société de service en informatique, spécialisé en l’occurrence dans le logiciel libre). Ce site s’est révélé simple d’utilisation et de gestion, mais les coûts d’intégration ont été élevés (plus de 30 000 €).
Enfin le ministère de l’Equipement a choisi SPIP, et l’entreprise pharmaceutique Servier, pour sa GED, a choisi Documentum.
Ce qui frappe dans ce choix d’outils, c’est que sur cinq organisations, trois ont choisi des logiciels libres; il s’agit d’organisations du secteur public, ce qui n’est pas un hasard: c’est non seulement une tendance forte, mais c’est même une directive pour certaines administrations comme le Ministère de l’Equipement.
Ce dernier cas, présenté par Marie-Pascale Krumnow, est exemplaire. Ce ministère coordonne des domaines d’activité très différents: équipement, transports, aménagement du territoire, tourisme et mer. Il est doté de 100 000 agents, en partie décentralisés. Avant le projet, il existait au sein du ministère environ 120 sites Web très hétérogènes sur des logiciels différents et une documentation variée, complexe et volumineuse.
Le projet de gestion de contenu a eu ici 2 facettes: le choix d’un outil commun de publication Web et la modélisation des types de documents.
Le service de documentation a notamment défini un référentiel de types de contenu, des règles communes de travail et de gestion ainsi qu’une charte éditoriale et une charte graphique.
C’est donc ici un rôle pivot de coordination, de normalisation et d’aide à la production qui est assumé par la documentation.
Conclusion
La gestion de contenu ou content management, maintenant bien implantée, comporte non seulement une dimension de gestion documentaire et organisationnelle, mais également une dimension éditoriale fondamentale; elle est également indissociable d’outils spécifiques, qui permettent une intégration accrue des processus de travil que sont la rédaction, la validation, et la publication (diffusion) de l’information.
En termes d’outils, une tendance se confirme: l’utilisation de logiciels libres, de plus en plus répandue dans l’Administration française. Pour certains, cela représente une économie, car l’organisation concernée (c’est le cas du Ministère de l’Equipement) peut, le cas échéant, utiliser ses ressources disponibles en informatique pour le paramétrage.
En termes de compétences, même si la gestion de contenu fait appel à des compétences pluridisciplinaires, c’est une opportunité renouvelée pour les documentalistes; mais encore faut-il qu’ils se mettent à la portée de leurs utilisateurs et ne créent pas des systèmes trop complexes, qui sont peut-être des modèles au niveau documentaire, mais trop complexes à l’utilisation, comme la classification réalisée par une documentaliste pour une des rubriques d’un des sites d’Air France (comme l’a indiqué M. Lalaude dans son intervention).
Si les documentalistes s’affirment et se mettent à la portée de leurs utilisateurs, ils ont alors un rôle essentiel à jouer dans des domaines comme l’ingénierie documentaire, la définition des métadonnées, la classification et la normalisation.
Editorial n°2
Ressi — 31 août 2005
Sur notre lançée...
Soutenus dans notre entreprise par vos encouragements, nous vous présentons aujourd’hui le numéro 2 de RESSI. Nous avons gagné notre pari de faire paraître RESSI 2 fois par année et nous nous efforçons de garder une échéance stable mais sans assurer à tout prix les mêmes dates de parution en 2006. Comme vous le constatez, nous restons fidèles à notre objectif de privilégier la publication d’auteurs vivant en Suisse tout en étant ouverts à une production internationale.
C’est ainsi que dans ce numéro vous trouvez en article de synthèse un papier de Ludivine Berizzi et Carole Zweifel, qui représentent les professionnelles de demain et montrent l’enthousiasme des jeunes diplômées pour le domaine des logiciels libres. Sujet d’actualité si l’on en croit les échanges sur les listes de diffusion, ce sujet interpelle nombre de personnes. Cet article nous explique en quoi consistent les logiciels libres avant d’aborder leurs avantages et leurs inconvénients. L’intérêt de cette contribution est de faire le point de la situation sur un sujet qui évolue très rapidement. Nous avons ouvert nos colonnes à deux enseignants – chercheurs lyonnais. Nos collègues nous proposent un article sur les pratiques d’accès à l’information en prenant le cas des concepteurs de produits de placements financiers. Selon Eric Thivant et Laïd Bouzidi, l’activité influencerait directement les pratiques informationnelles des professionnels financiers.
Une autre contribution nous vient du Québec. Daniel Ducharme, archiviste aux Archives nationales du Québec fait une brève mise au point sur la norme ISO 15489 sur le records management. Le milieu de la documentation et des archives trouve là un terrain de collaboration, surtout pour les européens, les québécois ayant intégré le records management dans leur pratique archivistique depuis plus de 30 ans.
Deux comptes-rendus de colloques, l’un en France et l’autre en Suisse montrent aussi notre attrait pour les manifestations professionnelles, toujours occasions de confronter théorie et pratique.
Hélène Madinier nous rend compte de la journée de l’Association des documentalistes et bibliothécaires spécialisés (ADBS) qui a eu lieu le 19 avril 2005 à Paris sur la gestion du contenu. A la fois apport théorique, conceptuel, et récits d’expériences, une telle journée est édifiante que l’on soit enseignant(e) ou praticien(nne).
Le second compte-rendu concerne la 2ème journée en intelligence économique et veille stratégique qui a eu lieu le 16 juin 2005 à Neuchâtel. Cette rencontre a rassemblé enseignants et professionnels de l’intelligence économique et de la veille sur le thème « Intelligence économique et réseaux : comment collaborer en réseau dans l’entreprise et hors de l’entreprise ». Thème d’actualité le réseau, qu’il soit professionnel ou relationnel, est un élément fondamental pour le travail collaboratif et le partage de l’information.
Nous remercions les auteurs qui ont contribué à la parution de ce numéro. Nous comptons encore sur vous pour nos prochains numéros et par avance nous vous en remercions. Bonne lecture.
Le Comité de rédaction
Technologies et normes archivistiques : La norme ISO 15489 sur le records management
Ressi — 31 août 2005
Daniel Ducharme, Archives Nationales, Québec
Résumé
Cet article succinct portera essentiellement sur la norme ISO 15489 sur le records management et ses conséquences sur la gestion des dossiers dans un environnement technologique. Après avoir présenté la norme ISO 15489, nous ferons un bref historique du records management en explicitant pourquoi l’adoption de normes, de politiques et de procédures pour la gestion des dossiers est devenue une nécessité incontournable en ce début du 21e siècle.
Technologies et normes archivistiques : La nome ISO 15489 sur le records management (1)
La norme ISO 15489
Issue d’un consensus obtenu au bout de plusieurs années de travaux en comité – travaux auxquels ont participé des archivistes du monde entier –, la norme ISO 15489 sur le records management est élaborée sous l’égide de l’Organisation internationale de normalisation (ISO) dans le but de servir de ligne directrice de bonne pratique professionnelle (Pelletier 2001, p. 81). Autrement dit, on a voulu faire de cette norme un code de best practice pour la gestion des dossiers. Elle est adoptée au cours de l’automne 2001. Bien qu’elle soit rapidement entérinée par le Conseil d’administration de l’Association des archivistes du Québec, elle ne suscite pas beaucoup d’enthousiasme au Québec et au Canada.
Cependant ce n’est pas le cas en France et, plus largement, en Europe continentale, où la diffusion de sa version française en avril 2002 a l’effet d’une petite bombe dans le milieu de la documentation et des archives. En effet, depuis l’annonce de la diffusion de cette norme, les publications se succèdent à un rythme sans précédent, et plusieurs formations continues sont organisées, qui par la Direction des Archives de France, qui par l’Association des archivistes français, qui par l’Association des archivistes suisses, et même par des regroupements privés. Des manuels en français (Drouhet 2000) sont publiés, et d’autres, traduits de l’anglais (Hare et McLeod 2003), font l’objet d’un tapage promotionnel assez important.
Aux yeux des Européens, il est temps de se mettre au records management… Pour eux, il s’agit d’une résurgence qu’a mis l’ordre du jour la diffusion de la norme ISO 15489 au début des années 2000.
Si l’adoption de cette norme a suscité un véritable engouement dans les milieux documentaires européens, le milieu archivistique québécois s’avère beaucoup moins touché par ce phénomène. Cela s’explique sans doute par le fait que les archivistes québécois, en dépit de quelques querelles de vocabulaire (mais nous adorons les débats linguistiques au Québec), intègrent l’archivistique et le records management dans leur pratique depuis plus de trente ans déjà alors que, en Europe continentale, la gestion documentaire est laissé aux mains des documentalistes.
La norme ISO 15489 porte spécifiquement sur le records management, et non sur les systèmes de gestion des archives comme l’auraient souhaité les archivistes australiens (Pelletier 2001, p. 82). En cela très originaux, les membres du comité du CIA « Archives courantes et intermédiaires » ont décidé de traduire « records management » par records management… et non par « gestion des documents » ou par « gestion des archives courantes et intermédiaires », comme l’auraient sans doute voulu certains archivistes québécois, voire quelques archivistes suisses puisque les Archives fédérales adoptent le terme « gestion des documents » dans ses publications de large diffusion (Eicher 2000).
En fait, le principal problème que soulève l'adoption du terme « records management » par la norme ISO 15489 (2001a) pour désigner la gestion des archives courantes et intermédiaires, ou si l’on préfère, la gestion des documents, n’est pas d’ordre linguistique, mais plutôt disciplinaire : elle laisse supposer que le records management (RM) est une discipline « nouvelle » et distincte de l'archivistique.
Or le RM est pratiqué depuis de nombreuses années dans les organisations, y compris dans la francophonie. On peut même, si l’on en a envie, faire remonter ses origines à la naissance de la civilisation occidentale. Pour s’en convaincre, il suffit de se reporter aux « considérations historiques » de Jean-Yves Rousseau et de Carol Couture (1994) au début des Principes fondamentaux de la discipline archivistique. On peut aussi consulter l’étude de Luciana Duranti (1989) sur les origines de la gestion des documents intitulé : « The Odyssey of the Records Manager ». Quant au retrait du RM de l’archivistique, il s’agit sans doute d’une évidence dans les pays anglo-saxons où les concepts de records et d’archives recouvrent deux réalités différentes, mais ce n’est pas le cas dans le monde francophone où la plupart des législations nationales sur les archives insistent sur le fait que la définition du mot « archives » englobe la notion de « records ».
A titre d’exemple, citons la Loi sur les archives du Québec qui définit les archives comme « l’ensemble des documents, quelle que soit leur date ou leur nature, produits ou reçus par une personne ou un organisme pour ses besoins ou l’exercice de ses activités et conservés pour leur valeur d’information générale. » Même chose pour la loi française de 1979 qui stipule que « les archives sont l’ensemble des documents, quels que soient leur date […], produits ou reçus par toute personne physique ou morale […], dans l’exercice de leur activité ».
Cela dit, nous n’en sommes pas à une contradiction près : plusieurs de nos institutions disposent de service de gestion des documents et des archives et, par le fait même, marquent cette distinction... pourtant inexistante dans la législation!
La gestion des dossiers dans les organisations : 1950-2000
Avant les années 1960, le records management est souvent associé aux régimes autoritaires, voire aux États totalitaires. En effet, ceux-ci imposent des procédures de gestion des dossiers qui sont souvent perçues par le personnel comme des mesures de contrôle. C’est le cas notamment en Allemagne et en Suisse alémanique où les procédures de registratur sont appliquées dans la plupart des administrations publiques.
Pour illustrer mon propos, je vous ferai part d’une expérience. Au début des années 1990, j’ai eu l’immense privilège d’exercer ma profession dans une ancienne colonie du Portugal – le Cap-Vert. En traitant les fonds de l’ancienne administration portugaise, mes collègues et moi avons découvert des plans de classification fort précis. Dans la plupart des cas, ces plans étaient accompagnés de directives très claires sur la gestion des dossiers, et ce bien avant les années 1950. Des sanctions étaient même prévues pour les fonctionnaires qui ne respectaient pas les procédures mises en place par l’administration de l’Empire portugais. Il s’agissait donc de records management bien avant que cette pratique ait été prétendument inventée par les Américains au tournant de la Deuxième guerre mondiale…
Dans années 1960, sans doute en réaction à ces mesures autoritaires, on a progressivement abandonné la gestion systématique des dossiers. D’aucuns estiment alors que l'introduction massive des photocopieurs dans les organisations ne rend plus nécessaire l'élaboration et la mise en œuvre de politiques et de procédures de gestion de l'information archivistique. Par ailleurs, l’effet désastreux des photocopieurs dans la constitution des dossiers et, surtout, dans l’accroissement exponentiel des documents, est signalé avec justesse par Marianne Chabin (1999, p. 80-82).
Cette tendance se renforce dans les années 1980 alors que l'ordinateur est devenu un outil de travail quotidien qui permet de créer et de diffuser des documents avec une rapidité et une facilité inconnues jusqu'alors. Cela occasionne une désorganisation assez spectaculaire de l'information archivistique... au point que d'aucuns jugent cette période comme étant une des plus catastrophiques de l'histoire contemporaine pour la sauvegarde du patrimoine archivistique des organisations.
En l'an 2000, les technologies bercent nos vies tant sur le plan professionnel que sur le plan personnel. Cependant, elles nous obligent à revenir aux années 1950, en ce sens qu’elles rendent nécessaire le recours à des procédures de contrôle. En effet, dans un environnement technologique, seule l'introduction de normes, de politiques et de procédures permet aux documents générés par les organisations :
- d’assurer la continuité de leur gestion
- de satisfaire les exigences de leur environnement réglementaire
- d’assumer leurs responsabilités.
Pourquoi avons-nous besoin de normes pour gérer les dossiers ?
Voici la question qui est au cœur de mon propos. En effet, pourquoi des normes ? Tout simplement parce que seul un haut degré de normalisation permet aux systèmes de gestion des dossiers mis en œuvre dans les organisations d’être fiable, intègre, conforme et systématique, quatre caractéristiques que devrait posséder tout système de gestion des dossiers. Ces caractéristiques représentent en fait les quatre exigences archivistiques, et c’est justement ce respect de ces exigences que les normes rendent possible.
Passons rapidement en revue ces exigences.
Fiabilité. Une gestion des dossiers réputée « fiable » devrait être en mesure de constituer la première source d’information sur les activités de l’organisation. Pour cela, elle doit :
- permettre l’intégration, la classification et l’identification immédiate de l’ensemble des documents produits ou reçus par l’organisation dans le cours de ses activités ainsi que de leurs métadonnées.
- protéger les documents et leurs métadonnées contre toute modification ou élimination abusive.
Intégrité. Une gestion des dossiers considérée comme « intègre » devrait être en mesure :
- d’assurer la protection des documents essentiels à la bonne marche et à la survie de l’organisation en cas de sinistre.
- de contrôler la circulation et l’accès aux documents.
Pour assurer la sécurité des documents essentiels, il est nécessaire de les identifier puis d’élaborer un plan d’urgence en fonction de l’évaluation des risques encourus (inondation, incendie, vol, etc.) et des coûts liés à la perte de ces documents et aux éventuelles possibilités de les recréer. Les mesures de contrôle sont, quant à elles, censées parer aux risques liés à la perte, au déplacement inapproprié et à toute modification abusive des documents d’archives et de leurs métadonnées.
Conformité. Une gestion des dossiers « conforme » devrait respecter l’environnement réglementaire – interne et externe – dans lequel évolue l’organisation. Il s’agit donc de prendre en compte :
- les exigences mises en exergue par les règlements, les politiques et les procédures en vigueur au sein de l’organisation.
- l’ensemble des textes législatifs, émis tant par le fédéral, le provincial et le municipal, qui affectent directement ou indirectement la gestion des dossiers dans l’organisation (législation sur les archives, sur la transparence administrative, sur la protection des données à caractère personnel mais aussi sur le personnel, la santé et la sécurité, etc.)
Systématisation. Une gestion des dossiers « systématique » devrait assurer le traitement complet des documents dès leur création ou leur réception par l’organisation. Cette opération comprend :
- l’identification du document ;
- l’intégration du document dans le dossier auquel il réfère ; la détermination du délai de conservation et du sort final du dossier (élimination, conservation ou tri) ;
- la localisation du dossier au stade courant, intermédiaire et, le cas échéant, définitif (bureau, dépôt d’archives intermédiaires, institution cantonale d’archives).
Conclusion
Dans les années 1950, la gestion de l'information archivistique était associée au totalitarisme alors qu'aujourd'hui on l'associe volontiers à la transparence administrative et à la démocratie. Cela n'est pas si étrange... car le contrôle des technologies par les citoyens constitue une exigence démocratique, et seule l'introduction de normes dans notre gestion peut nous permettre de rencontrer cette autre exigence.
Quant à la norme ISO 15489 sur le records management, les compromis de toutes sortes qu’a exigé son élaboration ont considérablement nui à sa portée réelle dans les milieux documentaires du Québec. À notre avis, la voie australienne du records keeping system s’avérait beaucoup plus adaptée au changement de paradigme que notre profession est en train de vivre. En fait, elle seule nous rappelle la réalité du quotidien : les technologies de l’information et des communications nous obligent à gérer des « archives », et non des documents ou des archives historiques, car la réunion des expertises du records manager, de l’archiviste, du manager et de l’informaticien est indispensable à la gestion des dossiers dans les organisations au 21e siècle
Notes
(1) Ce texte est une version remaniée d’une conférence faite le 28 mai 2004 dans le cadre du 33e congrès de l’Association des archivistes du Québec – « Changement de paradigme en gestion de l’information : Impacts sur nos façons de faire » (Sainte-Adèle, 27-29 mai 2004).
Chabin, Marie-Anne (1999). Je pense donc j’archive : L’archive dans la société de l’information. Paris : L’Harmattan.
Drouhet, Geneviève, Keslassy, Georges, et Elisabeth Morineau (2000). Records management: mode d’emploi. Paris, ADBS Editions (Sciences de l’information : Etudes et techniques).
Duranti, Luciana (1989). « The odissey of records manager », Records Management Quarterly. 23, p. 3-11
Eicher, André (2000). Prescriptions pour organiser la gestion des documents, Berne, Archives fédérales suisses.
Hare, Catherine et Julie McLeod (2003). Mettre en place le records management dans son organisation : Guide pratique / trad. Geoffrey Hare, Paris, Archimag, 47 p.
ISO 15489 (2001a). Norme internationale: Information et documentation – « Records management ». Partie 1 : Principes directeurs, [Genève], ISO.
ISO 15489 (2001b). Rapport technique: Information et documentation – « Records management ». Partie 2 : Guide pratique, [Genève], ISO.
Loi n° 79-18 du 3 janvier 1979 sur les archives. Adresse URL : http://www.cnrs.fr/Archives/archives/lois/loi1979.html. Page consultée le 18 février 2003.
Loi sur les archives (1983), in Site de l’Éditeur officiel du Québec. Adresse URL : http://www.publicationsduquebec.gouv.qc.ca/home.php. Page consultée le 21 mai 2004.
Pelletier, Johanne (2001). « Normalisation internationale : l’émergence des normes sur la gestion des documents », in : Pour que survive la mémoire vive… 29e congrès de l’ Association des archivistes du Québec, Montréal, 1-3 juin 2000. Québec : AAQ, p. 81-89
Rousseau, Jean-Yves, Carol Couture et al. (1994). Les fondements de la discipline archivistique, Québec, Presses de l’Université du Québec.
N°2 juillet 2005
Ressi — 31 août 2005
Sommaire - N°2, Juillet 2005
Etudes et recherches :
- Technologies et normes archivistiques : La norme ISO 15489 sur le records management - Daniel Ducharme
- Les pratiques d’accès à l’information : le cas des concepteurs de produits de placements financiers - Eric Thivant et Laid Bouzidi
Comptes-rendus d'expériences :
- Le pingouin bibliothécaire : les logiciels libres de gestion de bibliothèque - Ludivine Berizzi et Carole Zweifel
- « Intelligence économique et réseaux » Compte-rendu de la 2ème journée franco-suisse en intelligence économique et veille stratégique - Jacqueline Deschamps, François Courvoisier et Françoise Simonot
Evénements :
- Compte rendu de la journée d’étude ADBS sur la gestion de contenu - Hélène Madinier
Le pingouin bibliothécaire : les logiciels libres de gestion de bibliothèque
Ressi — 31 août 2005
Ludivine Berizzi, Haute Ecole de Gestion, Genève
Carole Zweifel, Haute Ecole de Gestion, Genève
Le pingouin bibliothécaire : Les logiciels libres de gestion de bibliothèque
Introduction
Lors de notre travail de diplôme, réalisé en 2004 à la fin de nos études en Information documentaire, à la Haute Ecole de Gestion de Genève, nous avons eu l’occasion d’explorer le domaine des logiciels libres de gestion de bibliothèque. La recherche puis l’exploration et l’installation d’un logiciel de ce type furent une expérience très enrichissante… mais assez isolée actuellement en Suisse.
Lors de nos recherches préalables, nous avons constaté que les logiciels libres de gestion de bibliothèque étaient particulièrement méconnus des professionnels de notre branche, en Suisse. Il nous a donc paru judicieux de partager notre expérience et notre avis sur la question. Parallèlement, de plus en plus d’articles et de sites Web, comme le site Free Biblio(1), sont consacrés à cette thématique : le logiciel libre est devenu une évidence…pour ceux qui suivent l’actualité de l’informatique documentaire et s’intéressent aux logiciels libres. Pourtant, il deviendra bientôt indispensable que tout bibliothécaire responsable d’un logiciel documentaire sache de quoi on parle.
Cet article se veut un compte-rendu de notre expérience, enrichi par les recherches de Carole Zweifel dans le cadre de ses fonctions actuelles d’assistante à la HEG. Compte tenu des évolutions rapides des logiciels libres, nous ne pouvons pas assurer que le contenu soit encore actuel dans une année… Dans cet article, nous expliquerons en premier lieu en quoi consiste le mouvement des logiciels libres, puis aborderons les avantages et désavantages des logiciels libres de gestion de bibliothèque par rapport à des solutions propriétaires.
Avant de conclure, nous parlerons plus spécifiquement de l’application pratique d’un logiciel libre à la Fondation Chanson et Musiques Actuelles à Nyon (Suisse).
Précisons que par logiciel de gestion de bibliothèques, nous entendons un système intégré de base de données pouvant gérer un catalogue de documents, permettre des recherches, gérer du prêt ou encore proposer un accès spécifique aux lecteurs (OPAC).
Le mouvement des logiciels libres, une idée généreuse
Historique du mouvement
L’histoire du logiciel libre est riche et complexe et le but de cet article n’est pas de s’y attarder. Signalons cependant les grandes lignes :
Le concept de logiciel libre remonte au tout début de l’informatique, lorsque les chercheurs s’échangeaient des codes pour faire avancer plus rapidement leurs recherches et développer des logiciels, ce qui a permis entre autres le développement d’Internet. Ce concept se développe beaucoup dans les milieux universitaires dès les années septante. L’introduction de licences d’exploitation supplante progressivement cette culture d’échanges et impose des restrictions d’usage.
En 1984, Richard M. Stallman, informaticien au MIT et travaillant à l’amélioration du système d’exploitation UNIX (à l’époque, propriété de AT & T), très irrité par la limitation croissante d’usage des logiciels, crée la Free Software Foundation (FSF) et lance son projet de système d’exploitation libre, intitulé GNU (soit GNU is not Unix). Il crée petit à petit de nombreux programmes dont le code source (2) est intégralement accessible. La dernière pierre de l’édifice, le système d’exploitation, qui permet d’être totalement indépendant de tout système propriétaire, manque pourtant. Celui-ci est crée en 1991 par un étudiant, Linus Torvalds, durant ses temps libres. Linus Torvalds souhaitait simplement proposer un système d’exploitation simple dans la lignée de Mimix, version légère d’Unix. Il se trouva que son système d’exploitation était l’élément manquant du projet GNU. Le résultat est bien connu puisqu’il s’appelle Linux (l’appellation correcte étant GNU/Linux), symbolisé par Tux le pingouin. Depuis sa création, Linux est de plus en plus utilisé par des particuliers, des entreprises mais aussi des administrations.
Il est difficile d’évaluer la part de marché de Linux pour les systèmes d’exploitation. En se basant sur l’usage des navigateurs Web, le W3 Schools (3) tient des statistiques mensuelles à ce propos et estime les parts de marchés suivantes (juin 2005) : 89.8 % pour l’environnement Windows, 3,5 % pour Linux et 3 % pour MacOS (les plateformes comptabilisant moins de 0.5% n’étant pas retenues).
Depuis 1994, date de sa création, Red Hat distribue sa version de Linux et celle-ci est actuellement la plus présente sur le marché. Il existe d’autre sociétés de distribution tel Debian, Mandrake ou Knoppix, qui proposent chacune une version différente de Linux, adaptée au public ou à la langue.
Depuis plus de dix ans, des logiciels libres ont été développés dans presque tous les domaines de l’informatique. En exemple, on peut citer Mozilla (Navigateur web) ou encore le serveur Web Apache, les langages Perl, Python, PHP, XML ou encore les produits Open Office (une version libre de Star Office, développé par Sun Microsystem).
Quant aux logiciels de gestion de bibliothèque, il en existait beaucoup, dans les années 80, tel Sibil, que l’on aurait pu considérer comme libres puisqu’ils étaient libres d’usage et de modifications. Ils furent pour la plupart abandonnées ou rachetés par un éditeur qui, ensuite, s’est attribué les droits d’exploitation. Le premier logiciel libre de gestion de bibliothèques en tant que tel, Koha, date de 1999 et a été réalisé par la société Katipo pour la Horowhenua Library Trust, puis “libéré” pour être utilisable par tous. A la même époque, Peter Schlumpf développe seul un autre logiciel libre : Avanti. Depuis, les initiatives n’ont pas manqué mais le développement dans ce domaine est très récent. Nous présenterons les divers logiciels plus loin.
Définition du logiciel libre
Dans le jargon informatique, on a parfois du mal à différencier les notions de freeware (ou gratuiciel), shareware (ou partagiciel) ou « public domain » (logiciel du domaine public). Définissons déjà ces trois termes avant de définir la notion de logiciel libre ou d’Open Source.
Le logiciel freeware est publié gratuitement et chacun peut se le procurer sans frais. La redistribution commerciale est interdite. Le shareware est également distribué gratuitement, mais sous une version simplifiée ou accessible dans un temps limité. Pour obtenir une version complète, l’utilisateur devra l’acheter. Quant au logiciel « public domain », il s’agit d’un logiciel dont les droits ont expiré. L’utilisateur peut sans autre l’obtenir gratuitement, mais le risque est grand que le logiciel soit abandonné au niveau de son code source et qu’il ne soit donc plus développé ou entretenu par son éditeur.
Ces trois types de logiciels se caractérisent par le fait que le code source n’est pas accessible aux utilisateurs.
A ces trois notions se sont ajoutées récemment les termes « logiciel libre » (free software en anglais) et « Open Source ». Le terme « libre » doit, premièrement, être compris dans le sens de « libéré » et non dans le sens de la gratuité. En effet, le code source du logiciel, sa boite noire en somme, est « libéré » et donc accessible à tous et chacun peut donc le modifier. Les logiciels libres sont, par essence, gratuits même s’il existe des « packs » payants (notamment pour les distributions Linux) qui contiennent les CDs d’installation, un guide voir un certain nombre de jours d’assistance.
La Free Software Foundation donne une définition claire des conditions à remplir pour qu'un logiciel soit considéré comme libre. On retiendra principalement les quatre libertés, édictées par Richard Stallman, qui sont offertes aux utilisateurs :
- La liberté d'exécuter le programme, pour tous les usages (liberté 0).
- La liberté d'étudier le fonctionnement du programme, et de l'adapter à ses besoins (liberté 1). Pour ceci, l'accès au code source est une condition requise.
- La liberté de redistribuer des copies, donc d'aider son voisin (liberté 2).
- La liberté d'améliorer le programme et de publier ses améliorations, pour en faire profiter toute la communauté (liberté 3). Pour ceci l'accès au code source est une condition requise.
Cette définition est contenue dans la licence GNU GPL (General Public Licence), première licence libre, crée par la FSF. Le principe de cette licence est basé sur le concept du « copyleft », c'est-à-dire, en bref, l’utilisation des lois de droit d’auteur dans le but opposé du copyright. Par principe, toute nouvelle version d’un logiciel sous licence GPL doit rester sous cette licence. Il existe d’autres licences du même type, mais souvent plus libérales. On citera entre autre la LGPL (pour Lesser General Public Licence).
Un logiciel libre est donc bien sous licence, comme le serait un logiciel propriétaire, mais cette licence est justement très permissive.
Le terme « Open Source » est apparu en 1998 et n’est pas forcément équivalent, principalement concernant le choix de la licence d’une nouvelle version ou d’une version dérivée. La notion « free software » étant peu claire et la FSF un peu trop rigoriste dans ses prises de position, la société Red Hat et d’autres militants du logiciel libre, réunis au sein de l’Open Source Initiative décident d’utiliser le terme « Open Source », en référence au code source ouvert. Ce terme sera ensuite très vite popularisé et utilisé à toutes les sauces, même par des éditeurs de logiciels propriétaires puisqu’il est possible de commercialiser un logiciel basé sur une partie du code d’un logiciel libre.
Reste que ces deux termes sont semblables dans leur définition. Nous n’utiliserons cependant pas, dans notre article, le terme « Open Source » puisqu’il est plus restrictif et postérieur à la notion de logiciel libre.
Pourquoi un logiciel libre en bibliothèque
Une philosophie commune
Lorsque l’on étudie la philosophie du mouvement des logiciels libres, on est frappé par sa similitude évidente avec la philosophie des bibliothèques.
Prenons un exemple : Eric Anctil (Anctil & Shid Beheshti, 2004) rappelle dans son article les 5 principes à suivre pour les bibliothécaires selon Ranganathan (1931) :
- Books are for use;
- Every reader his or her book;
- Every book its reader;
- Save the time of the reader;
- The Library is a growing organism.
Nous pouvons premièrement constater une similitude entre ces cinq principes et les quatre libertés du logiciel libre.
Ensuite, le combat pour la liberté de l’information et le libre droit à son accès est un combat commun aux deux communautés et les rapproche inévitablement.
Eric L. Morgan (Morgan, 2004b) résume assez bien cette similarité : « À plusieurs égards, je crois que le développement du logiciel ouvert, tel que le décrit [Eric S.] Raymond, est très similaire aux principes mêmes de la bibliothèque. D’abord et avant tout, par l’idée du partage de l’information. Les deux parties mettent l’accent sur l’accès direct. Les deux parties ont la culture du don et gagnent leur statut par la quantité de ce qu’elles diffusent… Les deux parties espèrent que le partage des informations fait progresser chacun dans le monde»
Nathalie Cornée (Cornée, 2003) en arrive aux mêmes conclusions : il paraît évident que les deux mondes collaborent « puisqu’ils partagent les mêmes objectifs ». « Les logiciels libres représentent des outils de travail logiques et naturelles par leur essence pour les professionnels de l’information. »
Cette constatation est donc plutôt pertinente, mais malheureusement les professionnels de l’information ne s’intéressent pas tous aux domaines de l’informatique libre. Un travail important de sensibilisation serait indispensable pour que ceux-ci se rendent compte du potentiel des logiciels libres et que les deux mondes se rencontrent.
Une solution à l’impasse des logiciels propriétaires
Dans les cours qui nous ont été donnés sur les logiciels documentaires ainsi que dans nos pratiques professionnelles, nous avons retenu plusieurs éléments concernant le marché du logiciel documentaire payant. Le choix commercial est important. Les fonctionnalités du logiciel répondent rarement à 100% aux attentes du client. Nous dépendons de l’éditeur, parfois peu disposé à faire des modifications dans le programme. Le développement d’un logiciel coûte cher et n’est pas toujours rentable. Les sociétés commerciales sont donc assez peu enclines à consacrer du temps et de l’argent pour satisfaire un client quant à des adaptations spécifiques à ce client. Mais si cela est possible, le client paie un surcoût qui peut être assez important. Et si celui-ci a peu de moyens, il devra donc s’adapter au produit et attendre patiemment les nouvelles versions. En fait, les logiciels propriétaires peuvent être comparés à du prêt-à-porter alors que les logiciels libres correspondraient mieux à du sur-mesure.
Mais surtout, le marché n’est pas stable. Entre rachat, abandon ou modifications incessantes de ces logiciels, il est difficile de trouver une solution stable et durable dans laquelle nous puissions avoir totalement confiance. Or, les bibliothèques travaillent sur le long terme et la pérennité des données informatiques, et si possible du système, est absolument essentielle. Le professionnel doit donc réfléchir à long terme et pouvoir migrer facilement ses données lorsqu’il change de logiciel documentaire. Ces préoccupations ne sont pas forcément comprises par des développeurs de logiciels propriétaires, même si l’on relève un plus grand intérêt de leur part quant à l’utilisation de formats standards.
A ces égards, les logiciels libres sont une solution très intéressante, au niveau du coût, de la maintenance et de la pérennité des données et du système.
On a trop tendance à réduire l’intérêt des logiciels libres à leur gratuité. Le logiciel libre est gratuit à l’acquisition, certes, mais l’on verra que le coût global n’est de loin pas nul. Lorsque l’on acquiert un logiciel propriétaire, le prix comprend l’installation, le paramétrage, parfois la formation du personnel et la maintenance, souvent avec un surcoût. Ces services ne sont pas proposés avec l’acquisition du logiciel libre, ou tout du moins pas gratuitement. Il faut donc premièrement prévoir du temps ou de l’argent pour l’installation et le paramétrage du logiciel puis la formation du personnel. Si le responsable est compétent et peut gérer la tâche seul ou avec l’aide d’un informaticien de la maison, il s’en tire à peu de frais. Il peut également consulter la communauté en cas de problèmes techniques. Reste qu’il devra consacrer un temps important pour suivre les évolutions du logiciel, adapter le sien ou participer au développement du logiciel selon ses capacités.
Dans le cas où le personnel est peu compétent et n’a pas la possibilité de demander l’aide d’un informaticien interne, il existe des sociétés de service en logiciel libre (SSLL). Ces sociétés proposent des conseils lors du choix d’un logiciel, l’installation et la configuration du logiciel, la résolution de problèmes techniques, une adaptation de celui-ci aux besoins de l’utilisateur ou éventuellement un ajout de modules. Certains développeurs de logiciels proposent également des services, tel PMB services pour le logiciel PMB. Cette société propose, entre autre, l’installation et la configuration du logiciel, un contrat de maintenance ou des cours de formation.
En résumé, si le responsable du logiciel a de bonnes compétences en informatique, il peut se débrouiller à peu de frais pour gérer celui-ci. Peu de coût financier donc, mais un coût important en temps et en investissement personnel. Par contre, s’il souhaite demander de l’aide à des développeurs externes, le coût financier peut être élevé et donc l’investissement dans ce logiciel moins avantageux que prévu.
Eric L. Morgan (Morgan, 2004a) soutient qu’il s’agit principalement d’un coût en temps de travail et nous avons également pu le constater dans notre expérience.
La communauté des utilisateurs est un gage important dans le succès d’un logiciel libre. Elle est composée principalement d’informaticiens, de développeurs et d’utilisateurs. Plus elle est grande, plus le développement et la pérennité du logiciel sont en principe assurés puisque si les développeurs principaux du logiciel abandonnent le logiciel, les membres de la communauté (et surtout les utilisateurs) auront tout intérêt à reprendre son développement. Cette communauté est souvent organisée autour d’un forum sur le site du logiciel mais également grâce à des listes de discussions. Les utilisateurs feront part de leurs besoins et, s’ils sont pertinents pour une partie de la communauté, elle se mettra au travail. Le résultat sera proposé à toute la communauté. L’utilisateur du logiciel, puisqu’il bénéficie de l’aide de cette communauté, devra par solidarité proposer ses services. S’il n’est pas compétent en informatique, il pourra toujours participer à l’élaboration d’un manuel d’utilisateur ou à la traduction du logiciel dans une autre langue, donner son avis sur certaines fonctionnalités ou signaler quelques dysfonctionnements. Ce système de communauté peut donc être très puissant concernant l’évolution d’un logiciel et les modifications et ajouts au logiciel peuvent être réalisés rapidement. A ce propos, nous conseillons la lecture de l’excellent article « La cathédrale et le bazar » de Eric S. Raymond (Raymond, 1998), qui permet de bien comprendre le fonctionnement et la puissance d’une communauté autour d’un logiciel libre.
On peut reprocher aux logiciels libres qu’ils ne soient pas des solutions sérieuses et durables. Au contraire, la communauté peut être très stimulante et les développeurs être très motivés. De plus, l’usage de langages libres s’appuyant sur des normes reconnues est un gage de stabilité. De même, les logiciels libres sont évolutifs : les diverses versions du logiciel ne sont pas figées et, puisqu’elles utilisent le même langage, respectent les versions antérieures et les migrations sont d’autant plus facilitées. Enfin, le soutien d’entreprises (dans le cas de Redhat et Mandrake, par exemple) permet également d’accroître cette stabilité. Évidemment, ces observations sont récentes et l’on ne peut pas deviser sur les vingt prochaines années…
En définitive, grâce à la licence libre de son logiciel, l’utilisateur, avec l’aide de la communauté, obtient un logiciel flexible et adapté aux besoins du SID, de surcroît à peu de frais et souvent assez rapidement.
Avantages des logiciels libres.
Nous avons relevé plusieurs avantages des logiciels libres liés à leur liberté d’utilisation, à l’indépendance par rapport à une société propriétaire. Signalons ici les avantages techniques et pratiques :
Avantages techniques
- Le code du logiciel étant ouvert, il est possible, si l’on possède les compétences suffisantes, d’intervenir dessus et donc de faire des modifications rapides en cas d’erreur ou d’amélioration.
- L’interface Web, particulièrement utilisée par les logiciels libres, demande uniquement l’utilisation d’un navigateur Web et d’un serveur Apache de type EasyPHP (selon notre expérience facilement installé). Elle permet une personnalisation de l’OPAC et facilite également l’usage de l’Unicode. En effet, le navigateur prend en compte la traduction et facilite donc la traduction dans de nombreuses langues. Les logiciels libres peuvent donc facilement proposer des traductions dans de nombreuses langues.
- Les langages de programmation (MySQL, PHP, Perl, Python,…) sont libres, connus et s’appuient sur des normes reconnues.
- Les normes et formats de catalogage (MARC, iso 2709,…) sont, pour la plupart des logiciels, respectés.
- De plus en plus, les logiciels libres gèrent XML, ce qui facilite grandement la migration des données et leur pérennité.
- Les logiciels libres sont moins sensibles aux virus car les failles peuvent être repérées par les développeurs et corrigées immédiatement.
Avantages pratiques
- En règle générale, chaque logiciel dispose d’un site web où l’on accède à la copie du logiciel, à des informations techniques et pratiques, à un forum, à des contacts,
- Une démo du logiciel est souvent disponible sur le site web du logiciel ou sur des sites web associés. L’utilisateur intéressé peut également directement installer le logiciel pour le tester et l’évaluer sur son propre poste.
- L’acquisition du logiciel est très simple puisqu’il suffit souvent de télédécharger simplement un fichier via Internet.
- Grâce à la communauté, on peut obtenir de l’aide et de l’assistance gratuitement. La communauté permet un partage des connaissances et des améliorations.
- Le logiciel est le souci d’une communauté active et permet indirectement la collaboration entre bibliothèques ou centres de documentations parfois très éloignés.
- La bonne connaissance du logiciel offre un contrôle informatique. Le responsable connaît bien techniquement le logiciel et il développe ses compétences informatiques dans un langage utilisé également ailleurs.
- On constate souvent un souci d’esthétisme dans la présentation des logiciels. Une présentation graphique agréable et l’ergonomie semblent faire partie des préoccupations des développeurs.
- Il existe de plus en plus de choix dans les logiciels de gestion de bibliothèque, du plus simple au plus complexe.
Désavantages des logiciels libres
Le choix d’un logiciel libre comporte de nombreux risques et désavantages qu’il est important d’avoir en tête. Signalons cependant que ces désavantages se présentent principalement dans le cas d’une gestion faite par une seule personne. Une gestion en équipe peut considérablement atténuer ces aspects :
Désavantages liés à l’utilisateur
- Il est important que celui qui souhaite installer puis gérer un logiciel libre de gestion de bibliothèque ait, en plus de ses connaissances en bibliothéconomie, de bonnes connaissances préalables en informatique ou qu’il ait à disposition un informaticien compétent, ceci pour pouvoir gérer la maintenance du logiciel de manière autonome.
- L’utilisateur doit suivre régulièrement les développement du logiciel via une mailing-list ou en visitant régulièrement le site web ou le forum du logiciel.
- De même, l’utilisateur devrait également consacrer du temps à la communauté et proposer son aide selon ses compétences.
- Parfois, lorsque le développement d’un logiciel n’est pas terminé ou qu’il n’existe qu’une version beta, l’acquisition du logiciel peut être payante, ceci pour financer son développement. Ce cas est cependant assez rare.
- L’investissement en temps pour l’utilisateur est important.
Désavantages liés au logiciel
- L’installation du logiciel peut être parfois très laborieuse.
- Actuellement, les logiciels à disposition proposent, pour la plupart, des fonctionnalités assez simples et parfois pas suffisamment performantes. On y trouve presque toujours les modules de catalogage, de circulation et un OPAC. Mais peu de logiciels proposent, par exemple, un module d’acquisition ou de prêt inter.
- Certains logiciels ne proposent actuellement que des versions beta, c'est-à-dire des versions encore non terminées et instables. Les développeurs se concentrent au début sur la création de nouveaux modules et « oublient » parfois d’améliorer ce qui a déjà été fait. Certains logiciels, les plus anciens, sont assez peu conviviales et difficiles à utiliser même si ceux-ci se veulent souvent simples d’usage. Les derniers arrivants sont nettement plus convaincants à ce propos.
- Il existe actuellement peu de manuels et de documentation quant à l’utilisation et la gestion des logiciels. C’est assez frappant dans le cas de Koha, logiciel pourtant assez utilisé : Jusqu’à début 2005, on ne trouvait aucune documentation digne de ce nom sur leur site web. Depuis, Koha a développé un site spécifique à ce propos, d’ailleurs assez complet.
- L’interaction avec les logiciels propriétaires n’est pas encore toujours acquise, de même entre les logiciels libres de gestion de bibliothèque.
- Le choix des logiciels actuels est très axé « gestion de bibliothèques » et peu « gestion de centres de documentation ».
Survol des logiciels disponibles actuellement
Un logiciel de gestion de bibliothèque propose en règle générale plusieurs modules tels la circulation (prêt), le catalogage, la recherche dans le catalogue, la gestion des acquisitions, le bulletinage des périodiques, des fonctions de gestion administrative, de statistiques ou encore un OPAC (Online Public Access Catalogue).
Après une brève recherche sur Internet, nous avons constaté qu’il existait un certain nombre de logiciels libres de gestion de bibliothèque(4) disponibles. Nous avons approfondi notre recherche dans des périodiques spécialisés (Argus, Archimag, Documentaliste, etc.), mais aussi sur des sites ressources et sur les sites officiels des logiciels documentaires. Après avoir rassemblé un corpus de textes suffisants et comparé les fonctionnalités de base des logiciels, nous en avons présélectionné sept qui méritaient d’être étudiés d’un peu plus près. Il s’agit de Avanti, Koha, Learning Access ILS, GNUTeca, PMB, OpenBiblio, et Emilda.
Nous les présentons brièvement ci-dessous, dans l’ordre du plus ancien au plus récent, avec une critique succincte de chacun. Nous avons ajouté une brève présentation d’Evergreen (anciennement Open ILS), logiciel récent que nous n’avons pas étudié lors de notre travail de diplôme mais qui semble très prometteur.
Signalons que la plupart de ces logiciels ont été développés pour des bibliothèques et que leurs fonctionnalités sont principalement adaptées à ce type d’institution. Cependant, la plupart peuvent être utilisés par des centres de documentation après quelques adaptations. Il manquera cependant les fonctions propres à un logiciel de gestion d’un centre de documentation telle la génération de produits documentaires (revues de presse, newsletters) ou encore la gestion de documents numériques (GED).
Avanti
Avanti est, à la base, l’oeuvre d’une seule personne, Peter Schlumpf (USA) et date de 1998. Le but était de développer un logiciel aussi simple que possible, flexible et ne demandant pas de grandes connaissances en informatique à ses usagers.
La version actuelle, Avanti MicroLSC, dans sa version 1.0 béta 4, propose un OPAC et un module de catalogage (compatible MARC), fonctionnels mais assez rudimentaires. Le catalogage des documents est possible sur 10 champs uniquement, ce qui peut, pour certaines petites bibliothèques, être suffisant. On ne peut pas préciser la nature du support et les périodiques sont donc mélangés aux monographies sans possibilité de les démarquer. Plus ennuyeux, il n’existe pas de champ date ou de zone de collation. La recherche se veut simple et est donc limitée aux champs « titre » et « auteur » et ne peut donc pas gérer une recherche thématique. Sébastien Thébault (Thébault, 2004) a installé ce logiciel, non sans peine et avertit que cette étape est difficile. La circulation sera intégrée dans la version 1.0 définitive, qui doit paraît courant 2005. Le graphisme est très épuré.
L’intérêt principal de ce logiciel est qu’il peut fonctionner sur n’importe quel système d’exploitation. Basé sur la technologie Java (de Sun), Avanti parie sur la stabilité de ce langage. Ce pari peut être discutable puisque le langage Java rend le logiciel assez lent pour les ordinateurs non récents. Sébastien Thébauld (Thébault, 2004) soutient également que la complexité de la technologie Java explique la lenteur des développements puisque peu de développeurs la maîtrisent. Le logiciel utilise son propre système de base de données nommé PicoDB.
En bref, le développement de ce logiciel est peu avancé et fastidieux puisqu’il est l’œuvre d’une personne assistée d’une équipe de sept développeurs, sans l’aide d’une éventuelle communauté. Autre handicap de taille, Avanti n’est, à priori, utilisé par aucune bibliothèque pilote. Le graphisme est sobre mais pas vraiment agréable. En fait, à force de vouloir être aussi simple que possible, Avanti n’est pas assez complet. A notre avis, il pourrait à peine convenir à de petites bibliothèques. Eric Anctil estime qu’il n’est pas encore prêt pour être implanté à son stade actuel de développement (Anctil & Shid Beheshti, 2004).
Koha
Koha prétend être le premier logiciel libre de gestion de bibliothèque. Il a été initialement développé en Nouvelle Zélande par la bibliothèque d’Horowhenua et la société Katipo en 1999. La bibliothèque souhaitait changer de SIGB (5) et a rédigé un cahier des charges en 1998. Aucune réponse ne la satisfaisait : les solutions étaient trop chères et souvent surdimensionnées. La société Katipo a alors développé Koha et a proposé de « libérer » le logiciel.
Concrètement, Koha comprend un catalogue (compatible MARC, multiples grilles, usage de thésaurus et d’autorités-matière), un OPAC (recherche sur une dizaine de champs, compte lecteur, panier de notices), un module pour la gestion de la circulation des documents et des lecteurs, un module d’acquisition simplifié ou complet (gestion du budget, des commandes, des fournisseurs, suggestions possibles de lecteurs via l’OPAC..), une aide en ligne partiellement complète. Koha fonctionne avec un client Web, sur Windows, Linux et MacOS, utilise les langages Perl pour la programmation et MySQL pour la base de données. Il s’est doté d’un protocole d’interrogation Z39.50 dans la version 2.0 et gère les formats UNIMARC, USMARC, MARC21 et le format d’échange iso 2709. Depuis peu, il existe un site regroupant plusieurs documentations concernant l’installation, la migration des données ou la maintenance.
Le type et la présentation des fonctionnalités de Koha l’orientent plutôt vers les bibliothèques académiques. Utilisé dans le monde entier grâce à des versions multilingues, Koha possède une importante communauté de développeurs, traducteurs et correspondants. Il a le potentiel pour devenir un logiciel universel à condition qu’il suscite toujours autant d’intérêt dans le milieu des centres d’information documentaire (Anctil & Shid Beheshti, 2004). En tout cas, selon Eric Anctil (Anctil & Shid Beheshti, 2004), c’est le logiciel libre de gestion de bibliothèque le plus complet actuellement et le plus avancé technologiquement. Koha a d’ailleurs reçu en 2003 le prix du logiciel libre pour la meilleure application pour structure publique aux « Trophés du Libre ». Par contre, il semblerait que son installation pose encore quelques problèmes. Dans notre cas, nous n’avons pas réussi à l’installer et plusieurs informaticiens de la HEG de Genève ont également essayé, sans succès. La principale difficulté s’est présentée avant l’installation de Koha proprement dite. Il faut en effet installer plusieurs briques logiciels (notamment des composants Perl) et c’est à ce niveau que nous avons été bloqués.
LearningAccess ILS
Le Learning Access Institut de Seattle propose un logiciel libre appelé LearnigAccess ILS. Anciennement nommé OpenBook ou Koha West, LearningAcesse ILS a été développé dès 2000 par J.G. Bell en se basant sur le code de Koha. En ce qui concerne les fonctionnalités, on y trouve trois modules : OPAC, catalogue (avec usage de MARC21) et gestion de la circulation. La gestion des acquisitions est encore en développement. Le catalogage comprend aussi le protocole Z39.50. Tous les modules fonctionnent avec une interface Web et permettent un usage multilingue. Techniquement, LearningAccess ILS fonctionne sur Linux ou Windows et utilise une base de données MySQL, le langage de programmation PHP et l’Unicode.
Le site Web donne accès à plusieurs mailing-lists pour les utilisateurs et permet de visionner un exemple d’application du logiciel au travers d’une base de données avec OPAC et 25'000 notices. Nous avons donc pu voir concrètement comment le logiciel se présente.
Côté négatif, la version n’est pas encore accessible sur le site Web mais on peut se procurer des versions béta sur le site personnel du créateur. Le Learning Access Institute attend d’avoir une version complète et stable avant de la distribuer librement.
Comme Koha, LearningAccess ILS a le potentiel de devenir universel. Via une recherche Internet, on trouve des OPAC de bibliothèques visiblement inspirés de ce logiciel, signe qu’il est déjà utilisé par des institutions. Le projet est supporté par une bonne équipe de développeurs et montre une grande ambition.
GNUTeca
Le projet GNUTeca a démarré en 2001 grâce à trois développeurs brésiliens. Il connaît un grand succès au Brésil dans les bibliothèques publiques, universitaires et même gouvernementales. Le nombre de programmeurs a augmenté et la version actuelle propose un OPAC, un catalogue compatible avec MARC21, une gestion de la circulation, le bulletinage et le prêt inter-bibliothèques. GNUTeca tourne sur Linux, utilise les langages de programmation PHP, PostgreSQL et utilise un langage de base de données libre portugais : Miolo.
Les fonctionnalités de ce logiciel nous semblent très intéressantes et le fait qu’il ait un grand succès populaire au Brésil nous semble de bon augure. Malheureusement, il est ennuyeux que ce logiciel ne fonctionne que sur Linux et qu’il ne soit actuellement pas encore traduit. Lorsqu’il existera une version traduite, ce logiciel pourra être vraiment intéressant dans nos contrées.
PMB
PMB, initié par le bibliothécaire français François Lemarchand et actuellement développé, animé et maintenu par la société PMB Services, date de 2002.
Il propose dans sa version 2.0 un OPAC, une gestion de la circulation des documents et des lecteurs, un catalogue (compatible MARC) avec gestion des autorités, un catalogage de ressources électroniques, le bulletinage des périodiques, un moteur de recherches multicritères et booléen. On peut également avoir accès à une documentation assez complète en ligne.
Tout comme Koha, PMB est basé sur des technologies issues du Web: serveur Apache, langage de programmation PHP et MySQL pour la gestion de base de donnée. Enfin, il utilise le protocole Z39.50 et gère le format UNIMARC ainsi que le format d’échange iso 2709. Le logiciel, déjà disponible en plusieurs langues (français, anglais, italien, espagnol, etc.), fonctionne très bien sur Windows, Linux et MacOS, en monoposte, Intranet ou Internet. Le logiciel est régulièrement mis à jour et la dernière version date de janvier 2005.
L’interface est très simple et conviviale pour les usagers comme pour les professionnels. PMB vise des SID de petite et moyenne taille ainsi que les centres de documentation spécialisés mais équipe déjà des bibliothèques de 180'000 ouvrages et un centre de documentation de 300'000 documents. Il comprend une grande communauté d’utilisateurs et propose des formations à domicile. Le produit est en plus en français. Il est l’un des SIGB les plus complets actuellement et est promis à un bel avenir.
OpenBiblio
Nous avons trouvé peu de références dans la littérature professionnelle à propos du logiciel OpenBiblio. Le site Web du logiciel donne quelques informations. Logiciel assez récent (2002), OpenBiblio propose les fonctionnalités classiques : OPAC, gestion de la circulation, du catalogue et des lecteurs. On y trouve également un module de gestion des employés. Le logiciel fonctionne avec une base de donnée MySQL, le langage de programmation PHP, sur Linux, Unix et Windows et gère l’USMARC. Ce logiciel est assez intuitif, agréable à l’œil, bien documenté (présence d’un forum d’utilisateurs) et facilement installable. Plusieurs traductions sont en cours, notamment en espagnol, en italien, en français ou encore en hébreu ou en indonésien !
Il n’existe encore aucune version définitive, la version actuelle étant la version béta 0.5.0. Le logiciel est pour l’instant principalement utilisé aux États-unis. Le forum indique une certaine activité des développeurs et une ambition internationale.
Emilda
Emilda est un logiciel libre de gestion de bibliothèque finlandais assez récent (la version 1.0 date de 2003).
La version 1.2.2 propose un OPAC, un module de catalogage et de circulation, une aide en ligne, une possibilité de faire des recherches simples et avancées et un paramétrage presque total du logiciel, et ceci très facilement. Une fonctionnalité originale : via l’OPAC, il est possible de mettre un commentaire sur un livre et lui attribuer une appréciation. Le site propose une documentation complète pour l’installation et l’administration du logiciel. Emilda gère entièrement le langage XML, est compatible avec MARC et intègre la recherche via Z39.50.
Emilda était initialement programmé en langage Perl. Il a ensuite été traduit en langage PHP et fonctionne avec une base de donnée MySQL. Ce logiciel fonctionne principalement sur Linux mais les développeurs signalent sur le site que l’installation sur d’autres systèmes serait en principe possible.
Les concepteurs d’Emilda ont particulièrement soigné l’apparence du logiciel et nous l’avons trouvé très agréable. La navigation est simple et aisée. On est vite sous le charme même si le logiciel propose encore des fonctionnalités de base. Emilda fonctionne actuellement dans trois écoles à Espoo, en Finlande.
Les développeurs sont conscients des imperfections de leur logiciel et incitent les visiteurs qui testent leur démo en ligne, à faire des commentaires. Mais le résultat actuel est assez convaincant et nous espérons que ce logiciel évoluera vite.
Evergreen
Evergreen, anciennement nommé Open ILS, est un projet développé par la bibliothèque d’État de Géorgie (USA) pour le Georgia Library PINES Program, un consortium de 251 bibliothèques publiques de Géorgie. Pour des raisons d’inadéquation des produits commerciaux aux attentes de ce consortium, il a été décidé de créer un SIGB libre sous licence GPL qui permette de gérer ce consortium ainsi que les bibliothèques qui y appartiennent selon les besoins précis du système PINES.
Le projet a débuté fin 2004 et le logiciel est encore en développement. Le site web donne encore peu d’informations mais le module de catalogage peut déjà être étudiés via une démo et l’on peut déjà observer le résultat via l’OPAC du réseau PINES.
Techniquement, le logiciel fonctionne avec une base de donnée PostgreSQL, est programmé en C++ et en Perl et fonctionne avec un serveur Apache. Le type de système d’exploitation sur lequel fonctionne ce logiciel n’est pas précisé.
Nicolas Morin, dans son weblog BiblioAcid, a suivi de très près les développements de ce logiciel et semble très impressionné par les premiers résultats. Ce logiciel semble très prometteur puisqu’il s’agira d’un gros système, prévu de fonctionner pour un vaste réseau de bibliothèques.
L’installation de PMB à la FCMA : notre expérience
Le sujet de notre travail de diplôme nous a été proposé par la Fondation Chanson et Musiques Actuelles (Nyon), une petite structure chargée de la promotion des groupes de musique actuelle de Suisse romande et d’une aide sous forme de consulting et de conseils pour leur carrière. Le public est assez restreint et seul le mercredi après-midi leur est, en principe, dévolu pour prendre rendez-vous. Cette association, fondée en 1997, a amassé et acquis une quantité de documentation de tous supports : monographies (environ 250 vol.), périodiques (60 titres dont 6 abonnements), CDs (environ 450), documents audiovisuels, dossiers de presse, etc…dans laquelle le personnel avait parfois bien de la peine à se retrouver. La FCMA ne disposait, en outre, d’aucune communication en externe de son fonds. La nécessité d’implanter un système de gestion global des documents s’est vite imposée à nous pour gérer de façon pratique et homogène toute cette information.
Nous étions cependant soumis à diverses contraintes : la FCMA disposait d’un budget restreint dévolu à la documentation. De ce fait, il nous fallait trouver une solution au prix le plus raisonnable possible. En outre, le système que nous allions mettre en place serait géré par des non professionnels en information et documentation. Il fallait, de plus, prendre en compte le fait que le temps à disposition du personnel pour la gestion de la documentation était limité. La solution que nous devions trouver se devait d’être simple d’utilisation et maniable.
Concernant la maintenance, un informaticien pouvait intervenir à la demande.
Le choix d’un logiciel libre
Lors de nos recherches préalables, nous sommes arrivés à la conclusion que les logiciels « propriétaires » de bibliothèque étaient, dans notre cas, trop onéreux. De plus, les logiciels commerciaux de bibliothèque possèdent en général un certain nombre de modules utiles à la gestion de toutes les tâches courantes en bibliothèque (acquisition, bulletinage des périodiques, prêts, comptabilité, etc.). Or, la FCMA ne prêtant pas de documents et ne gérant pas un fonds important, un grand nombre de fonctionnalités auraient été inutiles. Il était donc superflu d’investir beaucoup d’argent dans un logiciel où peu de fonctionnalités seraient exploitées. Comme nous l’avons évoqué précédemment, les logiciels libres proposent en général des fonctionnalités simplifiées ou ne possèdent pas encore tous les modules des logiciels propriétaires. Vu que les besoins de la FCMA étaient limités, les fonctionnalités présentes étaient de toute façon suffisantes.
Pour ces deux raisons, nous avons axé nos recherches sur les logiciels libres, même si, avouons-le, nous étions assez inexpérimentés dans le domaine.
En Suisse, il nous semblait que les logiciels libres de gestion de bibliothèques étaient encore peu connus et très peu utilisés. Un petit sondage lancé en février 2005 sur Swisslib (6) a montré qu’effectivement, il existe très peu d’initiatives dans ce domaine en Suisse, en tout cas selon les quelques réponses que nous avons obtenues. Un projet romand de logiciel libre de gestion de petite bibliothèque, BiblioApp, nous a été signalé par la Bibliothèque Intercommunale et Scolaire de Mézières qui l’utilise avec satisfaction. Celui-ci sera prochainement renommé Papyrus. Par contre, lors de notre mandat, il n’existait pas d’application des logiciels que nous avons étudiés. Nous avons appris dernièrement que le Centre de documentation et d’information de l’école Moser de Genève utilisait PMB mais aucune visite n’a encore été faite sur place.
Fin 2004, une autre équipe de travail de diplôme a proposé à son mandant le choix de l’installation de Koha ou de Bibliomaker dans une nouvelle bibliothèque mais aucune installation n’a été réalisée à ce jour. Le défi de choisir un logiciel libre dans un centre de documentation était donc, à notre connaissance, une première dans notre région.
Un travail de diplôme est une sorte d’expérimentation où il faut parfois faire preuve d’un peu d’ingéniosité, faire appel au système D et explorer des domaines à la pointe. Nous avons donc trouvé l’occasion excellente pour nous jeter dans l’aventure.
Évaluation et choix définitif du logiciel documentaire
Après un premier tri dans les solutions libres, il s’agissait de trouver la solution la plus appropriée à notre situation. Après un repérage de sept logiciels potentiellement intéressants, nous en avons sélectionné trois (Koha, PMB, Learning Access ILS). Ceux-ci seraient ensuite décortiqués en profondeur, testés et comparés.
Premièrement, il a fallu se procurer une copie du logiciel ou une « démo ». A ce niveau, nous avons déjà dû abandonner Learning Access ILS puisque apparemment, il n’existait aucune copie accessible et plusieurs e-mails de demande au concepteur sont restés sans réponse.
Koha, pour sa part, a posé de sérieux problèmes d’installation. En effet, aucun informaticien que nous connaissions n’a pu réaliser l’installation complète. Nous avons donc fait notre évaluation sur une version « démo », certainement un peu limitée, disponible sur le site Internet de Koha. Le logiciel PMB, quant à lui, a été très facile à télécharger et à installer pour son évaluation.
Suite à la rédaction d’un cahier des charges, il ne restait plus qu’à nous plonger dans l’exploration de Koha et de PMB.
Le choix s’est porté sur le logiciel PMB pour les raisons suivantes :
- L’accès administrateur du logiciel est très facile à utiliser et très intuitif. Il nous a semblé que pour des utilisateurs non professionnels, la facilité d’emploi était indispensable. Le logiciel s’installe très facilement. Les mises à jour sont également assez faciles à réaliser et sont téléchargeables directement sur le site de la communauté de PMB. De plus, il n’y pas besoin de demander de l’aide à un informaticien pour effectuer cette tâche, souvent périlleuse.
- Le logiciel est très convivial. Sa présentation graphique est plaisante et claire et la navigation est aisée et intuitive.
- A l’exception d’un module d’acquisition inexistant (il sera inclus dans le courant 2005), les fonctionnalités répondaient en grande partie à nos exigences et souvent de manière satisfaisante.
- Le logiciel gère plusieurs listes d’autorité dont un thésaurus (entre autre celui de l’UNESCO) et une classification. L’intervention sur les autorités est facile et rapide. De plus, l’usager peut appeler les listes d’autorité depuis le module de catalogage, ce qui rend la tâche plus rapide.
- Le paramétrage est assez facile. Depuis le module administration, l’administrateur peut aisément modifier plusieurs paramètres propres au centre de documentation. Par contre, la modification des fonctionnements spécifiques du logiciel doit se faire via le code et demande donc une connaissance du langage PHP et de MySQL.
- Il existe plusieurs manuels de PMB, sur le site Web et intégrés au logiciel, ainsi qu’une version papier, concernant l’installation, le paramétrage et l’utilisation. Ceux-ci sont bien conçus.
En revanche, le logiciel montre quelques faiblesses au niveau de l’OPAC. Celui-ci est assez performant concernant la recherche mais graphiquement, il est assez peu agréable. Il n’est pas possible de déplacer les éléments de la page. Signalons cependant que l’usage de feuilles de styles CSS permet d’adapter l’apparence graphique. Ce détail nous a semblé pourtant de faible importance puisque nous pensions transposer la base de données sur le site Web de la FCMA, sans utiliser l’OPAC sous la forme proposée.
Installation, paramétrage et prise en main du logiciel
L’installation du logiciel PMB sur un poste de la FCMA fut facile et nous avons pu le faire par nos propres moyens. La mise en réseau sur les autres postes informatiques fut, par contre, plus laborieuse. Pour réaliser ce travail de mise en réseau, nous avons contacté l’informaticien responsable du parc informatique de la FCMA et au bout d’une bonne heure, le logiciel était opérationnel sur toutes les machines.
Nous avons réalisé nous-même, sans aide externe, les paramétrages propres à la FCMA, tels la mention de propriété des documents, le type de documents et leur restriction de prêt, l’entrée des mots-clés déjà choisis, l’entrée de la classification que nous avions créé ou encore les paramètres graphiques de l’OPAC. L’informaticien a lui-même paramétré le lieu de sauvegarde puisque celui-ci était lié au réseau.
Catalogage
Nous avons catalogué nous-même une grande partie du fonds puisqu’il n’y avait aucune description existante ni de moyen de récupérer des notices. Cette étape s’est effectuée très facilement. Certaines fonctionnalités de PMB se sont avérées vraiment agréables tels l’appel automatique de listes d’autorités dans les notices catalographiques ou l’accès à la liste des dernières notices cataloguées. Il est possible de cataloguer plusieurs exemplaires d’un document, de récupérer des notices via un module Z39.50 ou par l’import de notices au format UNIMARC. Le logiciel peut gérer l’usage des codes barres ou générer automatiquement un nouveau numéro d’exemplaire.
Notre avis sur le logiciel PMB
Lors de notre travail de diplôme, nous avons suffisamment travaillé avec la base de donnée PMB pour nous faire un avis objectif sur le logiciel. Les divers modules sont bien pensés et s’utilisent de façon vraiment intuitive, ce qui permet une prise en main rapide du logiciel. En effet, nous n’avons pas eu besoin de nous baser sur la documentation existante du logiciel pour en acquérir les fonctionnalités de base. Le logiciel fonctionne très bien et son temps de réponse est vraiment très acceptable. De plus, un travail simultané en réseau n’a posé aucun problème.
Nous avons remarqué cependant quelques incohérences, notamment, dans la grille de catalogage. La zone que nous appellerions communément indexation, c’est-à-dire la possibilité de mettre des mots-clés à l’ouvrage, est nommée « Catégories » et pour créer une véritable confusion, la zone que nous appellerions classification est intitulée « Indexation »…
Ce problème de dénomination n’est cependant pas bien grave et il suffit d’en être conscient pour passer outre. Par contre, plus ennuyeux, la grille de catalogage des périodiques ne possède pas de champ « périodicité » ni « date ». Nous avons donc mis ces mentions dans les notes, faute de mieux. Ces lacunes devraient disparaître avec l’ajout prochain d’un module de gestion des abonnements. Enfin, dans l’OPAC, les noms de champs sont axés « catalogage de monographie ». On retrouve donc la notion « nombre de pages » devant la durée d’un CD
Ces petites incohérences ne posent aucun problème pour la gestion de documents dans le sein d’une petite institution néanmoins, dans le cas d’une institution de grande importance, il serait nécessaire de faire appel aux développeurs, à la communauté, voir à un professionnel pour régler ce genre de petits désagrégements et avoir au final des notices au format standard pour chaque type de documents.
Suite à la dernière mise à jour du logiciel, nous avons eu un problème sérieux dans la gestion des mots-clés. En effet, un certain nombre de ceux-ci n’apparaissaient plus dans la liste d’autorité ni dans la liste disponible via le module de catalogage. Ce fut donc une « bonne » occasion de tester la communauté. Nous avons expliqué en détail notre problème, via la mailing-list, et avons demander une aide. La réponse se fait toujours attendre et nous supposons que nos mails ont été perdus dans la masse. Nous avons donc, heureusement, résolu le problème par nos propres moyens et avons d’ailleurs obtenu une réponse à notre problème récemment, via un problème semblable présenté à la communauté. Étant inscrite depuis quelques mois sur cette mailing-list, Carole Zweifel a pu constater que la plupart des problèmes obtiennent une réponse et que la communauté est très active et efficace.
Bilan de l’expérience
Le bilan de cette expérience a été très positif pour nous. Le logiciel PMB est vraiment performant et a répondu à un grand nombre de nos attentes de départ. Depuis notre départ et suite à une petite formation dispensée par nos soins, le personnel de la FCMA s’est bien adapté à cet outil, qui est devenu un « compagnon de travail » idéal dans le traitement de l’information et de la recherche de documents. Avec notre aide, ils ont pu installer la nouvelle version du logiciel. Malgré quelques problèmes, auxquels nous avons pu pallier assez facilement, nous pouvons garantir l’efficacité du logiciel à moyen terme dans leurs locaux.
Le logiciel est toujours utilisé et le fonds a été presque entièrement catalogué par les employés et par Ludivine Berizzi lors d’un mandat supplémentaire de quinze jours.
Le libre, la solution d’avenir ?
Une alternative viable
Puisque le domaine des logiciels de gestion de bibliothèque est assez récent, il est difficile de se faire une idée claire de son avenir. A-t-on affaire à un effet de mode ? On aurait pu le craindre mais, à ce stade, on assiste plutôt à l’émergence d’un nouveau marché. Les logiciels libres sont en train de s’implanter petit à petit dans le paysage informatique et les logiciels libres de gestion de bibliothèques suivent le mouvement. Il est difficile de chiffrer le nombre d’installations de ce type de logiciels. Si, en Suisse, les SIGB libres semblent très marginaux, en France, PMB par exemple est installé dans une centaine d’institutions. Koha compte plus de soixante installations dans le monde entier.
Le fait que la philosophie des logiciels libres se rapproche beaucoup de celle des bibliothèques ne peut que les réunir assurément. Nicolas Morin (Morin, 2004) estime d’ailleurs que le combat logiciel libre / logiciels propriétaires, dans son principe, est déjà gagné d’avance. Il se demande cependant si les logiciels libres peuvent s’imposer pour une application métier comme un système intégré de gestion de bibliothèque.
Suite à notre expérience, nous pensons que les logiciels libres peuvent actuellement proposer une alternative vraiment intéressante aux logiciels propriétaires. On remarque en tout cas que les initiatives sont de plus en plus nombreuses et que les bibliothécaires / documentalistes ont de plus en plus de choix en ce qui concerne les logiciels de gestion de bibliothèque. C’est une bonne chose mais faut-il encore que le logiciel soit viable, sérieux et semble stable.
Ces logiciels suivent très souvent les nouvelles technologies tout en maintenant une compatibilité avec les anciennes versions, ce qui permet de faciliter les migrations de données. Ils sont souvent assez esthétiques, en tout cas pour les plus récents. Leur interface est soignée et souvent conviviale. Ils utilisent pour la plupart des plates-formes Web et des langages libres de programmation (PHP, Perl,…).
Par contre, plusieurs logiciels ne sont pas terminés ou proposent des versions bêta. La plupart offre les fonctionnalités de base mais les fonctions plus évoluées, tel un module d’acquisition, de gestion financière, le prêt-inter ou la recherche booléenne, sont plus rares. Enfin, un certain nombre de logiciels ne sont pas encore utilisés réellement dans les bibliothèques, ceci pour des raisons de version inachevée ou peut-être de mauvaise adéquation aux besoins.
Bref, il est indispensable de trier et de tester sérieusement les logiciels les plus avancés, puis estimer si la communauté des utilisateurs est assez importante pour assurer une certaine pérennité du logiciel. En fait, nous n’avons guère trouvé plus de sept logiciels qui nous semblaient convenables et à notre avis seuls PMB, Koha, GNUTeca et éventuellement LearningAccess ILS et Evergreen peuvent actuellement prétendre à un avenir assuré. Ces logiciels conviennent très bien à des bibliothèques et centres de documentation de petite et moyenne importance (et à un grand réseau dans le cas d’Evergreen) et on ne devrait pas les ignorer lors du choix d’un logiciel de gestion de bibliothèque.
Une décision politique
Par contre, dans le cas de grandes bibliothèques, pour être concurrentiels par rapport aux logiciels propriétaires, les fonctionnalités devraient à l’avenir s’étoffer et ainsi obtenir plus de crédibilité. Les développeurs sont souvent très motivés et nous pensons que les logiciels libres se développeront vite et pourront dans un avenir proche, être compétitifs par rapport aux logiciels propriétaires.
Le problème d’une installation en réseau se pose également sérieusement. Que faire en cas de réseaux de bibliothèques ? Peut-on imposer un logiciel libre à toute une communauté de bibliothèques ? A notre avis, il s’agit avant tout d’une question politique. Koha semble, par exemple, en bonne liste pour s’implanter dans de grandes bibliothèques. Ce logiciel est d’ailleurs installé déjà dans des établissements universitaires français (École Nationale Supérieure des Mines de Paris, École des Mines de Nantes, École Supérieure d'Ingénieurs en Électronique et Électrotechnique,…). Quant à Evergreen, il devrait permettre de gérer en réseau plus de 250 bibliothèques de petite à grande importance.
Dans des pays aux moyens plus limités, cette question se pose moins et les logiciels libres constituent, en général, une alternative économique idéale, un moyen de se libérer de l’hégémonie des produits occidentaux, d’obtenir une « indépendance technologique » et de réduire la fracture numérique. L’ouvrage de Perline et Thierry Noisette (Perline & Noisette, 2004) explique très bien les enjeux sociopolitiques et économiques des logiciels libres dans les pays non occidentaux et du Tiers-Monde. Nous ne nous y attarderons pas mais nous pensons que la crédibilité des logiciels libres viendra peut-être de ces pays.
Prenons l’exemple du Brésil. Ce pays est l’un des tous premiers à avoir légiféré en faveur des logiciels libres. Une loi fédérale est actuellement en discussion au parlement pour ne permettre l’usage de logiciels propriétaires par l’administration qu’en cas d’absence de logiciel libre correspondant au cahier des charges (Perline & Noisette, 2004). L’environnement politique brésilien est donc très favorable et ce pays devient le paradis du pingouin Linux et des logiciels libres (Dibbell, 2004). Cela explique que GNUTeca soit très bien implanté au Brésil, autant dans des bibliothèques publiques, universitaires que gouvernementales.
Un risque calculé
L’implantation d’un logiciel libre de gestion de bibliothèque aux dépends d’un logiciel propriétaire est actuellement encore rare. Il s’agit donc d’un pari risqué mais selon Nicolas Morin (Morin, 2004), c’est un risque calculé. Nous pouvons le confirmer, suite à notre expérience. Nous avons, en tout cas, confiance envers le logiciel PMB et sa communauté.
Il est dommage que pour notre travail de diplôme et pour cet article, nous n’ayons pas eu le temps d’installer et tester tous les logiciels. Ce travail reste encore à faire. Nous pourrions également imaginer de réaliser une grille d’évaluation adaptée aux logiciels libres de gestion de bibliothèque.
En attendant un test plus complet, nous incitons déjà tous les professionnels à s’intéresser aux solutions libres et à les tester lors d’un choix de logiciel. Nous pourrions presque assurer que « l’essayer, c’est l’adopter » !
Notes
(1) Toutes les références des sites web se trouvent en fin d’article.
(2) Le code source est une représentation humainement compréhensible des instructions qu’exécute l’ordinateur, c’est, en quelque sorte, le noyau du logiciel.
(3) voir le site web de W3schools : http://www.w3schools.com/browsers/browsers_stats.asp (visité le 16 juin 2005)
(4) Nous n’avons pas investigué dans les logiciels de gestion de bibliothèques numériques puisqu’ils n’auraient pas répondu entièrement aux besoins de la FCMA et que celle-ci ne possède actuellement pas suffisamment de documents numériques.
(5) SIGB : Système Intégré de Gestion de Bibliothèque
(6) Liste de discussion suisse des spécialistes en information et documentation
Bibliographie
Sélection de sites web
- Free Software Foundation (consulté le 16 juin 2005)
- Open Source Initiative (consulté le 16 juin 2005)
- Site d’Avanti (consulté le 16 juin 2005)
- Site française de Koha (consulté le 16 juin 2005)
- Site de Learning Access ILS (consulté le 16 juin 2005)
- Site de GNUTeca (consulté le 16 juin 2005)
- Site de PMB (consulté le 16 juin 2005)
- Site de OpenBiblio (consulté le 16 juin 2005)
- Site de Emilda (consulté le 16 juin 2005)
- Site d’Evergreen (consulté le 16 juin 2005)
- Open Source Systems for Libraries (consulté le 16 juin 2005)
- Free Biblio : l’actualité du logiciel libre et gratuit pour bibliothèques (consulté le 16 juin 2005)
Articles
ANCTIL, Eric et SHID BEHESHTI, Ph. D (2004). Open source integrated library systems : an overview. anctil.org [en ligne], [consulté le 16 juin 2005].
BREEDING, Marshall (2002). An Update on open source ILS. Information today, vol. 19, no. 9
CORNÉE, Nathalie (2003). Logiciel libre en bibliothèque. 116 p. Mémoire, Information et documentation d’entreprise, Bordeaux 3.
DIBBELL, Julian (2004). We pledge allegiance to the penguin. Wired, novembre 2004, p. 191-197
FERCHAUD, Bernadette (2004). Les logiciels libres, solutions pour la gestion de l’information ? Documentaliste – Sciences de l’information, vol. 41, no. 3, p. 196-199
LOINTIER, Cécile (2001). Les logiciels documentaires gratuits. Argus, vol. 30, no. 3, p. 7-9.
MORGAN, Eric Lease (2004a). Logiciels libres et bibliothèques. Biblioacid, vol. 1, no. 2-3, p. 1-8.
MORGAN, Eric Lease (2004b). Open Source Software in Libraries : a workshop. Infomotions, Inc [en ligne], [consulté le 16 juin 2005].
MORIN, Nicolas (2003). Bibliothèques et logiciels libres. Nicolas Morin – Site pro [En ligne], [consulté le 16 juin 2005].
MORIN, Nicolas (2004). Pour un SIGB libre. Biblioacid, vol. 1, no. 2-3, p. 8-14.
PERLINE, NOISETTE, Thierry (2004). La bataille du logiciel libre : dix clés pour comprendre. Paris : La Découverte. Sur le vif. ISBN 2-7071-4384-7

La revue Ressi
- N° Spécial DLCM
- N°21 décembre 2020
- N°20 décembre 2019
- N°Spécial 100ans ID
- N°19 décembre 2018
- N°18 décembre 2017
- N°17 décembre 2016
- N°16 décembre 2015
- N°15 décembre 2014
- N°14 décembre 2013
- N°13 décembre 2012
- N°12 décembre 2011
- N°11 décembre 2010
- N°10 décembre 2009
- N°9 juillet 2009
- N°8 décembre 2008
- N°7 mai 2008
- N°6 octobre 2007
- N°5 mars 2007
- N°4 octobre 2006
- N°3 mars 2006
- N°2 juillet 2005
- N°1 janvier 2005