N°2 juillet 2005

Sommaire - N°2, Juillet 2005

Etudes et recherches :

Comptes-rendus d'expériences :

Evénements :

Editorial n°2

 

Sur notre lançée...

Soutenus dans notre entreprise par vos encouragements, nous vous présentons aujourd’hui le numéro 2 de RESSI. Nous avons gagné notre pari de faire paraître RESSI 2 fois par année et nous nous efforçons de garder une échéance stable mais sans assurer à tout prix les mêmes dates de parution en 2006. Comme vous le constatez, nous restons fidèles à notre objectif de privilégier la publication d’auteurs vivant en Suisse tout en étant ouverts à une production internationale.

C’est ainsi que dans ce numéro vous trouvez en article de synthèse un papier de Ludivine Berizzi et Carole Zweifel, qui représentent les professionnelles de demain et montrent l’enthousiasme des jeunes diplômées pour le domaine des logiciels libres. Sujet d’actualité si l’on en croit les échanges sur les listes de diffusion, ce sujet interpelle nombre de personnes. Cet article nous explique en quoi consistent les logiciels libres avant d’aborder leurs avantages et leurs inconvénients. L’intérêt de cette contribution est de faire le point de la situation sur un sujet qui évolue très rapidement. Nous avons ouvert nos colonnes à deux enseignants – chercheurs lyonnais. Nos collègues nous proposent un article sur les pratiques d’accès à l’information en prenant le cas des concepteurs de produits de placements financiers. Selon Eric Thivant et Laïd Bouzidi, l’activité influencerait directement les pratiques informationnelles des professionnels financiers.

Une autre contribution nous vient du Québec. Daniel Ducharme, archiviste aux Archives nationales du Québec fait une brève mise au point sur la norme ISO 15489 sur le records management. Le milieu de la documentation et des archives trouve là un terrain de collaboration, surtout pour les européens, les québécois ayant intégré le records management dans leur pratique archivistique depuis plus de 30 ans.

Deux comptes-rendus de colloques, l’un en France et l’autre en Suisse montrent aussi notre attrait pour les manifestations professionnelles, toujours occasions de confronter théorie et pratique.

Hélène Madinier nous rend compte de la journée de l’Association des documentalistes et bibliothécaires spécialisés (ADBS) qui a eu lieu le 19 avril 2005 à Paris sur la gestion du contenu. A la fois apport théorique, conceptuel, et récits d’expériences, une telle journée est édifiante que l’on soit enseignant(e) ou praticien(nne).

Le second compte-rendu concerne la 2ème journée en intelligence économique et veille stratégique qui a eu lieu le 16 juin 2005 à Neuchâtel. Cette rencontre a rassemblé enseignants et professionnels de l’intelligence économique et de la veille sur le thème « Intelligence économique et réseaux : comment collaborer en réseau dans l’entreprise et hors de l’entreprise ». Thème d’actualité le réseau, qu’il soit professionnel ou relationnel, est un élément fondamental pour le travail collaboratif et le partage de l’information.

Nous remercions les auteurs qui ont contribué à la parution de ce numéro. Nous comptons encore sur vous pour nos prochains numéros et par avance nous vous en remercions. Bonne lecture.

Le Comité de rédaction

Technologies et normes archivistiques : La norme ISO 15489 sur le records management

Daniel Ducharme, Archives Nationales, Québec

Technologies et normes archivistiques : La nome ISO 15489 sur le records management (1) 

La norme ISO 15489

Issue d’un consensus obtenu au bout de plusieurs années de travaux en comité – travaux auxquels ont participé des archivistes du monde entier –, la norme ISO 15489 sur le records management est élaborée sous l’égide de l’Organisation internationale de normalisation (ISO) dans le but de servir de ligne directrice de bonne pratique professionnelle (Pelletier 2001, p. 81). Autrement dit, on a voulu faire de cette norme un code de best practice pour la gestion des dossiers. Elle est adoptée au cours de l’automne 2001. Bien qu’elle soit rapidement entérinée par le Conseil d’administration de l’Association des archivistes du Québec, elle ne suscite pas beaucoup d’enthousiasme au Québec et au Canada.

Cependant ce n’est pas le cas en France et, plus largement, en Europe continentale, où la diffusion de sa version française en avril 2002 a l’effet d’une petite bombe dans le milieu de la documentation et des archives. En effet, depuis l’annonce de la diffusion de cette norme, les publications se succèdent à un rythme sans précédent, et plusieurs formations continues sont organisées, qui par la Direction des Archives de France, qui par l’Association des archivistes français, qui par l’Association des archivistes suisses, et même par des regroupements privés. Des manuels en français (Drouhet 2000) sont publiés, et d’autres, traduits de l’anglais (Hare et McLeod 2003), font l’objet d’un tapage promotionnel assez important.

Aux yeux des Européens, il est temps de se mettre au records management… Pour eux, il s’agit d’une résurgence qu’a mis l’ordre du jour la diffusion de la norme ISO 15489 au début des années 2000.

Si l’adoption de cette norme a suscité un véritable engouement dans les milieux documentaires européens, le milieu archivistique québécois s’avère beaucoup moins touché par ce phénomène. Cela s’explique sans doute par le fait que les archivistes québécois, en dépit de quelques querelles de vocabulaire (mais nous adorons les débats linguistiques au Québec), intègrent l’archivistique et le records management dans leur pratique depuis plus de trente ans déjà alors que, en Europe continentale, la gestion documentaire est laissé aux mains des documentalistes.

La norme ISO 15489 porte spécifiquement sur le records management, et non sur les systèmes de gestion des archives comme l’auraient souhaité les archivistes australiens (Pelletier 2001, p. 82). En cela très originaux, les membres du comité du CIA « Archives courantes et intermédiaires » ont décidé de traduire « records management » par records management… et non par « gestion des documents » ou par « gestion des archives courantes et intermédiaires », comme l’auraient sans doute voulu certains archivistes québécois, voire quelques archivistes suisses puisque les Archives fédérales adoptent le terme « gestion des documents » dans ses publications de large diffusion (Eicher 2000).

En fait, le principal problème que soulève l'adoption du terme « records management » par la norme ISO 15489 (2001a) pour désigner la gestion des archives courantes et intermédiaires, ou si l’on préfère, la gestion des documents, n’est pas d’ordre linguistique, mais plutôt disciplinaire : elle laisse supposer que le records management (RM) est une discipline « nouvelle » et distincte de l'archivistique.

Or le RM est pratiqué depuis de nombreuses années dans les organisations, y compris dans la francophonie. On peut même, si l’on en a envie, faire remonter ses origines à la naissance de la civilisation occidentale. Pour s’en convaincre, il suffit de se reporter aux « considérations historiques » de Jean-Yves Rousseau et de Carol Couture (1994) au début des Principes fondamentaux de la discipline archivistique. On peut aussi consulter l’étude de Luciana Duranti (1989) sur les origines de la gestion des documents intitulé : « The Odyssey of the Records Manager ». Quant au retrait du RM de l’archivistique, il s’agit sans doute d’une évidence dans les pays anglo-saxons où les concepts de records et d’archives recouvrent deux réalités différentes, mais ce n’est pas le cas dans le monde francophone où la plupart des législations nationales sur les archives insistent sur le fait que la définition du mot « archives » englobe la notion de « records ».

A titre d’exemple, citons la Loi sur les archives du Québec qui définit les archives comme « l’ensemble des documents, quelle que soit leur date ou leur nature, produits ou reçus par une personne ou un organisme pour ses besoins ou l’exercice de ses activités et conservés pour leur valeur d’information générale. » Même chose pour la loi française de 1979 qui stipule que « les archives sont l’ensemble des documents, quels que soient leur date […], produits ou reçus par toute personne physique ou morale […], dans l’exercice de leur activité ».

Cela dit, nous n’en sommes pas à une contradiction près : plusieurs de nos institutions disposent de service de gestion des documents et des archives et, par le fait même, marquent cette distinction... pourtant inexistante dans la législation!

La gestion des dossiers dans les organisations : 1950-2000

Avant les années 1960, le records management est souvent associé aux régimes autoritaires, voire aux États totalitaires. En effet, ceux-ci imposent des procédures de gestion des dossiers qui sont souvent perçues par le personnel comme des mesures de contrôle. C’est le cas notamment en Allemagne et en Suisse alémanique où les procédures de registratur sont appliquées dans la plupart des administrations publiques.

Pour illustrer mon propos, je vous ferai part d’une expérience. Au début des années 1990, j’ai eu l’immense privilège d’exercer ma profession dans une ancienne colonie du Portugal – le Cap-Vert. En traitant les fonds de l’ancienne administration portugaise, mes collègues et moi avons découvert des plans de classification fort précis. Dans la plupart des cas, ces plans étaient accompagnés de directives très claires sur la gestion des dossiers, et ce bien avant les années 1950. Des sanctions étaient même prévues pour les fonctionnaires qui ne respectaient pas les procédures mises en place par l’administration de l’Empire portugais. Il s’agissait donc de records management bien avant que cette pratique ait été prétendument inventée par les Américains au tournant de la Deuxième guerre mondiale…

Dans années 1960, sans doute en réaction à ces mesures autoritaires, on a progressivement abandonné la gestion systématique des dossiers. D’aucuns estiment alors que l'introduction massive des photocopieurs dans les organisations ne rend plus nécessaire l'élaboration et la mise en œuvre de politiques et de procédures de gestion de l'information archivistique. Par ailleurs, l’effet désastreux des photocopieurs dans la constitution des dossiers et, surtout, dans l’accroissement exponentiel des documents, est signalé avec justesse par Marianne Chabin (1999, p. 80-82).

Cette tendance se renforce dans les années 1980 alors que l'ordinateur est devenu un outil de travail quotidien qui permet de créer et de diffuser des documents avec une rapidité et une facilité inconnues jusqu'alors. Cela occasionne une désorganisation assez spectaculaire de l'information archivistique... au point que d'aucuns jugent cette période comme étant une des plus catastrophiques de l'histoire contemporaine pour la sauvegarde du patrimoine archivistique des organisations.

En l'an 2000, les technologies bercent nos vies tant sur le plan professionnel que sur le plan personnel. Cependant, elles nous obligent à revenir aux années 1950, en ce sens qu’elles rendent nécessaire le recours à des procédures de contrôle. En effet, dans un environnement technologique, seule l'introduction de normes, de politiques et de procédures permet aux documents générés par les organisations :

  • d’assurer la continuité de leur gestion
  • de satisfaire les exigences de leur environnement réglementaire
  • d’assumer leurs responsabilités.

Pourquoi avons-nous besoin de normes pour gérer les dossiers ?

Voici la question qui est au cœur de mon propos. En effet, pourquoi des normes ? Tout simplement parce que seul un haut degré de normalisation permet aux systèmes de gestion des dossiers mis en œuvre dans les organisations d’être fiable, intègre, conforme et systématique, quatre caractéristiques que devrait posséder tout système de gestion des dossiers. Ces caractéristiques représentent en fait les quatre exigences archivistiques, et c’est justement ce respect de ces exigences que les normes rendent possible.

Passons rapidement en revue ces exigences.

Fiabilité. Une gestion des dossiers réputée « fiable » devrait être en mesure de constituer la première source d’information sur les activités de l’organisation. Pour cela, elle doit :

  • permettre l’intégration, la classification et l’identification immédiate de l’ensemble des documents produits ou reçus par l’organisation dans le cours de ses activités ainsi que de leurs métadonnées.
  • protéger les documents et leurs métadonnées contre toute modification ou élimination abusive.

Intégrité. Une gestion des dossiers considérée comme « intègre » devrait être en mesure :

  • d’assurer la protection des documents essentiels à la bonne marche et à la survie de l’organisation en cas de sinistre.
  • de contrôler la circulation et l’accès aux documents.

Pour assurer la sécurité des documents essentiels, il est nécessaire de les identifier puis d’élaborer un plan d’urgence en fonction de l’évaluation des risques encourus (inondation, incendie, vol, etc.) et des coûts liés à la perte de ces documents et aux éventuelles possibilités de les recréer. Les mesures de contrôle sont, quant à elles, censées parer aux risques liés à la perte, au déplacement inapproprié et à toute modification abusive des documents d’archives et de leurs métadonnées.

Conformité. Une gestion des dossiers « conforme » devrait respecter l’environnement réglementaire – interne et externe – dans lequel évolue l’organisation. Il s’agit donc de prendre en compte :

  • les exigences mises en exergue par les règlements, les politiques et les procédures en vigueur au sein de l’organisation.
  • l’ensemble des textes législatifs, émis tant par le fédéral, le provincial et le municipal, qui affectent directement ou indirectement la gestion des dossiers dans l’organisation (législation sur les archives, sur la transparence administrative, sur la protection des données à caractère personnel mais aussi sur le personnel, la santé et la sécurité, etc.)

Systématisation. Une gestion des dossiers « systématique » devrait assurer le traitement complet des documents dès leur création ou leur réception par l’organisation. Cette opération comprend :

  • l’identification du document ;
  • l’intégration du document dans le dossier auquel il réfère ; la détermination du délai de conservation et du sort final du dossier (élimination, conservation ou tri) ;
  • la localisation du dossier au stade courant, intermédiaire et, le cas échéant, définitif (bureau, dépôt d’archives intermédiaires, institution cantonale d’archives).

Conclusion

Dans les années 1950, la gestion de l'information archivistique était associée au totalitarisme alors qu'aujourd'hui on l'associe volontiers à la transparence administrative et à la démocratie. Cela n'est pas si étrange... car le contrôle des technologies par les citoyens constitue une exigence démocratique, et seule l'introduction de normes dans notre gestion peut nous permettre de rencontrer cette autre exigence.

Quant à la norme ISO 15489 sur le records management, les compromis de toutes sortes qu’a exigé son élaboration ont considérablement nui à sa portée réelle dans les milieux documentaires du Québec. À notre avis, la voie australienne du records keeping system s’avérait beaucoup plus adaptée au changement de paradigme que notre profession est en train de vivre. En fait, elle seule nous rappelle la réalité du quotidien : les technologies de l’information et des communications nous obligent à gérer des « archives », et non des documents ou des archives historiques, car la réunion des expertises du records manager, de l’archiviste, du manager et de l’informaticien est indispensable à la gestion des dossiers dans les organisations au 21e siècle

Notes

 (1) Ce texte est une version remaniée d’une conférence faite le 28 mai 2004 dans le cadre du 33e congrès de l’Association des archivistes du Québec – « Changement de paradigme en gestion de l’information : Impacts sur nos façons de faire » (Sainte-Adèle, 27-29 mai 2004).

Bibliographie

Chabin, Marie-Anne (1999). Je pense donc j’archive : L’archive dans la société de l’information. Paris : L’Harmattan.

Drouhet, Geneviève, Keslassy, Georges, et Elisabeth Morineau (2000). Records management: mode d’emploi. Paris, ADBS Editions (Sciences de l’information : Etudes et techniques).

Duranti, Luciana (1989). « The odissey of records manager », Records Management Quarterly. 23, p. 3-11

Eicher, André (2000). Prescriptions pour organiser la gestion des documents, Berne, Archives fédérales suisses.

Hare, Catherine et Julie McLeod (2003). Mettre en place le records management dans son organisation : Guide pratique / trad. Geoffrey Hare, Paris, Archimag, 47 p.

ISO 15489 (2001a). Norme internationale: Information et documentation – « Records management ». Partie 1 : Principes directeurs, [Genève], ISO.

ISO 15489 (2001b). Rapport technique: Information et documentation – « Records management ». Partie 2 : Guide pratique, [Genève], ISO.

Loi n° 79-18 du 3 janvier 1979 sur les archives. Adresse URL : http://www.cnrs.fr/Archives/archives/lois/loi1979.html. Page consultée le 18 février 2003.

Loi sur les archives (1983), in Site de l’Éditeur officiel du Québec. Adresse URL : http://www.publicationsduquebec.gouv.qc.ca/home.php. Page consultée le 21 mai 2004.

Pelletier, Johanne (2001). « Normalisation internationale : l’émergence des normes sur la gestion des documents », in : Pour que survive la mémoire vive… 29e congrès de l’ Association des archivistes du Québec, Montréal, 1-3 juin 2000. Québec : AAQ, p. 81-89

Rousseau, Jean-Yves, Carol Couture et al. (1994). Les fondements de la discipline archivistique, Québec, Presses de l’Université du Québec.

Les pratiques d’accès à l’information : le cas des concepteurs de produits de placements financiers

Eric Thivant, Université Lyon 3, France

Laid Bouzidi, Université Lyon 3, France

Les pratiques d’accès à l’information : le cas des concepteurs de produits de placements financiers

Introduction

L’arrivée du tout numérique et d’internet dans le monde du travail modifie l’activité des professionnels et change profondément leurs pratiques d’accès à l’information, c'est-à-dire leurs pratiques de recherche et d’utilisation de l’information dans le contexte professionnel.

L’objectif de cet article est donc de réfléchir à la mise en place d’un nouveau cadre théorique et méthodologique susceptible de rendre compte de ces pratiques informationnelles quotidiennes qui sont bouleversées par les nouvelles technologies de l’information et de la communication.

Dépassant le clivage aspects-techniques / aspects-humains en science de l’information, mis en évidence par Deschamps (2005), et ne pouvant pas se satisfaire entièrement du paradigme « orienté usages » du monde anglo-saxon, notamment pour comprendre les trouvailles ou la sérendipité des acteurs en situation (Van Andel, 2005), nous souhaitons donc mettre en évidence la nécessité d’un nouveau cadre théorique « centré activité », émergeant peu à peu des différentes recherches actuelles. Ce nouveau cadre théorique proposé doit alors s’accompagner de nouvelles méthodologies et d’outils d’analyses pour étudier ces pratiques. Nous présenterons ci-dessous deux exemples réalisés dans le cadre d’une activité financière.

1. Le paradigme « orienté usagers » et perspectives

1.1. Présentation de ce paradigme

Le paradigme « orienté usages » est un cadre théorique et méthodologique ouvert, apprécié par la communauté scientifique en science de l’information, puisqu’il permet de décrire les pratiques d’accès à l’information de tout à chacun. Peu de travaux avant la naissance de ce paradigme ont porté sur l'échange, le transfert, la recherche et l'utilisation de l'information. Ce paradigme dominant en science de l’information, s’est progressivement constitué autour d’un vocabulaire commun et de principes d'actions identiques, dont notamment le principe de décomposition par étapes, admis par l’ensemble de la communauté scientifique, qui permet de décrire et d’analyser dans le détail les principales pratiques de recherche et d’utilisation de l’information des professionnels.

Enfin pour pouvoir comprendre comment les acteurs conçoivent et gèrent des produits financiers, nous nous interrogerons sur les mécanismes cognitifs, psychologiques et sociaux de ces professionnels. Plusieurs approches ont été très utilisées dans ce paradigme. Nous pouvons citer l’utilisation de l’approche sociale empirique, de l’approche de psychologie cognitive ou de création de sens (Dervin, 2003) ou encore l’approche de psychologie sociale.

1.2. Principales définitions

Ce paradigme a permis l’émergence d’un consensus sur un certain nombre de définitions dont les notions de pratiques de recherche, de pratiques d’utilisation et de pratiques d’accès à l’information. Et nous ne pouvons pas nous désintéresser de cette richesse sémantique (1)  :

La pratique informationnelle « peut être considérée comme l’ensemble des actions et des choix de l’individu lors d’une phase de recherche d’information provoquée par un besoin d’information ». (Sarméjeanne, 2001). Comme le précise Wilson (2000) ces actions et ces choix peuvent être actifs et / ou passifs, conscients ou non et toujours liés aux différentes sources et canaux d’information. Ainsi cette définition peut inclure la communication de face-à-face, ainsi que la réception passive d’information comme le fait de regarder de la publicité à la télévision sans aucune intention d’agir sur l’information reçue (2) .

La macro-pratique de recherche d’information (Information Seeking Behavior ou I.S.) c’est l’ensemble des actions et des choix intentionnels d’un individu en matière de recherche d’information en réponse à un besoin d’information. Dans la course à la recherche d’information, l’usager peut interagir avec des systèmes d’information manuels (comme des journaux ou des bibliothèques) ou avec des systèmes informatiques, comme le World Wide Web. (Wilson, 2000) (3) .

La micro-pratique de recherche (ou repérage) d’information (Information Searching Behavior) est une micro-pratique, mise en œuvre par le chercheur d’information en interagissant avec le système d’information médiatisés ou non. Ces pratiques sont constituées par l’ensemble des interactions avec le système d’information, soit à un niveau interactionnel entre l’homme et la machine (par exemple utilisation de la souris ou des clics sur des liens), soit à un niveau plus intellectuel (par exemple adopter une stratégie de recherche booléenne ou déterminer des critères pour choisir entre deux livres intéressants sur une étagère de bibliothèque) sur la base de choix cognitifs des usagers comme le jugement sur des données pertinentes ou sur des résultats de recherche documentaire (Wilson, 2000) (4) .

La micro-pratique de repérage d’information documentaire (ou de recherche documentaire) (Information Retrieval Behavior IRB) : est une micro-pratique de repérage d’information avec l’aide de systèmes d’information médiatisés, afin de repérer des documents pertinents dans des bases de données ou sur internet / intranet, et en servant de méta-données au sein de ces bases de données.

La pratique d’utilisation de l’information (Information Use Behavior) est l’ensemble des actions et des choix, permettant d’enrichir les connaissances et les savoirs d’une personne à partir de l’information trouvée. Ces actions peuvent prendre la forme par exemple d’une annotation d’un texte en fonction de l’importance ou de la signification des différents paragraphes ou sections et ces choix peuvent permettre de comparer les informations déjà connues et les informations trouvées (Wilson, 2000) (5) .

La pratique d’accès à l’information (Information Seeking and Use Behavior ISU) est l’ensemble des actions et des choix des acteurs mis en œuvre pour la recherche et l’utilisation de l’information.


Figure 1 : Le modèle en oignon de Wilson (1999, p. 252)

1.3. Principales représentations des pratiques d’accès à l’information

Le point de départ des user studies est le suivant un utilisateur individuel d'information s'engage dans un comportement de recherche d'information en réponse à un besoin perçu. Le concept de besoin semble être très difficile à traduire en termes de recherche alors que le concept de pratique de recherche d'information information-seeking behaviour est une activité (information related activity) identifiable, observable et pouvant être (dé-)construite (voir la figure n°1). Le professionnel pressent un besoin, mais il ne peut pas toujours le définir ou savoir qu'il en a l’utilité, Wilson (2000).


Figure 2 : Le modèle de Wilson de 1981 (1999, p. 252)

Ellis et Haugan (1997, p. 395) recensent huit étapes principales : initialisation ou démarrage de la recherche (starting), exploration et enchaînement (chaîning), différentiation des sources d'information (differentiating), extraction (extracting), vérification de l'information (verifying) et recherche finale. Deux étapes intermédiaires peuvent être utilisées à savoir l'utilisation de recherche dirigée ou navigation (browsing) et la veille ou surveillance (monitoring). Tandis que Kuhlthau ne trouve que 6 étapes (reconnaissance du problème, identité et formulation de ce problème, rassemblement d'information, présentation et évaluation de l'information). Voir la figure n°3 ci-dessous :


Figure 3 : Le modèle d'Ellis et le modèle ISP (Information Search Process) de Kuhlthau

Selon les travaux de Bernhard (1998, p. 7), près d’une dizaine de modèles de recherche d’information existent et le nombre d’étapes fluctue de 3 à 9 étapes. (dont le modèle d’Irving et Marland, d’Eisenberg et Berkowitz, d’Herring et différentes associations). Sans parler du modèle EST (Évaluation, Sélection, Traitement), que nous décrit Morizio (2002, p.75). Ces modèles sont essentiellement destinés à rendre compte des pratiques de recherche d’information appliquée, soit à l’enseignement primaire et secondaire, soit à l’enseignement collégial et supérieur. Seuls Tenopir (2004), Case (2002) et Cheuk (1999) ont retenu notre attention, car ils ont étudié d’autres professions tels que les ingénieurs et les architectes.

Nous devons parler surtout des travaux de Cheuk (1999), qui a travaillé avec le monde professionnel dans trois contextes de travail différents : Huit ingénieurs « qualité », huit auditeurs (ou commissaires aux comptes) et huit architectes ont été ainsi interrogés, ils travaillaient tous à Singapour. Cheuk constate alors que les situations de « recherche et d’utilisation d’informations » (ou RUI) sont au nombre de dix situations différentes :

  1. La tâche initiale : c’est une situation où les ingénieurs s’aperçoivent qu’il y a une tâche à accomplir, qu’un besoin se « fait sentir ».
  2. La formulation centrale : les ingénieurs perçoivent qu’ils doivent obtenir une meilleure compréhension des problèmes qu’ils ont dans leurs mains, c’est-à-dire décider, dans quelle zone spécifique, ils peuvent agir.
  3. Le choix de l’idée : dans cette situation, les ingénieurs commencent de se faire une idée sur les problèmes à résoudre. Pour s’assurer que l’idée est bonne, ils vont chercher toutes les réponses possibles et évaluer toutes les réponses, une à une.
  4. La confirmation de l’idée : dans cette situation, les ingénieurs vont déterminer une idée, par exemple de ce qui a causé un échec pour un nouveau produit. Et ils essaieront de vérifier que l’idée émise est la bonne. Il pourrait y avoir alors plusieurs bonnes idées retenues, et la vérification ne pourra être réalisée qu’avec le concours de plusieurs personnes simultanément, lorsque cela est possible.
  5. Le rejet de l’idée : dans cette situation, les ingénieurs peuvent découvrir des idées conflictuelles, ou ils ne peuvent pas obtenir les informations requises pour confirmer leurs idées.
  6. La finalisation de l’idée : dans cette situation, le but des ingénieurs est de chercher un consensus formel et d’obtenir des informations complémentaires pour confirmer et finaliser leurs idées.
  7. La mise en chantier de l’idée : dans cette situation, les ingénieurs présentent leurs idées à une audience déterminée avec différents objectifs définis. À partir des idées réunies, les ingénieurs vont faire passer leurs idées.
  8. La mise au point du projet : les ingénieurs ont besoin de rechercher des informations supplémentaires pour réaliser le projet envisagé.
  9. La recherche d’approbation : les ingénieurs recherchent des approbations officielles pour continuer leurs travaux.
  10. La situation d’attribution d’approbation : les ingénieurs ont besoin de rechercher de l’information avant de recevoir l’approbation d’autres personnes.

Cependant, il faut remarquer que les ingénieurs ne suivent pas de schémas séquentiels spécifiques et peuvent passer d’une situation à une autre sans ordre préétabli, à condition toutefois de connaître l’autonomie effective (élaboration de ses propres règles d’actions) ou allouée (espace discrétionnaire d’action, imposée de l’extérieur) des acteurs. C’est ce dernier modèle qui retiendra notre attention pour décrire des pratiques d’accès à l’information.

Ce n’est qu’à partir de cette base commune, que les chercheurs ont développé différentes représentations des pratiques d’accès à l’information, comme le micro-modèle de Bates ou le macro-modèle de Wilson (voir ci-dessous).


Figure 4 : Le micro-modèle de Bates avec les différents modes de recherche d'information (2002)

La recherche directe et active, que nous pourrions nommer « repérage », essaie de répondre aux questions que nous nous posons ou de comprendre un sujet particulier. Ce mode de recherche, pour Bates (2002), est peu usité pour l’utilisateur lambda.

La veille est complémentaire à un autre mode de recherche la « navigation », même s’ils sont opposés. La veille est réalisée de façon directe et passive. Les personnes restent en alerte sur des sujets qui les intéressent et se contentent de rester informés (« maintaining current awareness »). Généralement l’environnement social et physique est arrangé pour que l’information parvienne au moment opportun (Hutchins, 2000).

La navigation (browsing) est un mode de recherche indirect et actif. Ici nous n’avons pas de besoin précis ou d’intérêt, mais nous cherchons activement de nouvelles informations (la curiosité peut conduire à ce mode de recherche).

La conscience est un comportement passif et indirect. Une grande partie (80%) de ce que nous connaissons provient du fait d’être simplement conscient. Comme le suggère Sandstrom, les personnes cherchent avant tout à réduire leurs efforts de recherche.

Le macro-modèle de Wilson est davantage général et regroupe les principales représentations théoriques des pratiques informationnelles et d’accès à l’information (notamment le modèle de Kuhlthau et d’Ellis) :


Figure 5 : Le macro-modèle de Wilson

Les différents modèles de Wilson de 1981 et 1996 s’appuient sur d’autres disciplines, comme la psychologie. Premièrement, le besoin d'information secondaire émerge à partir de besoins basiques (physiologiques, cognitifs ou affectifs), dépendant de la personne, son travail ou son environnement (politique, économique, etc.). Deuxièmement, dans son effort de recherche d'information, le chercheur est gêné par différentes barrières ou « variables intervenantes ». Enfin, différentes théories expliquent certaines pratiques constatées, comme la débrouillardise (théorie du stress / chaperon), l’utilisation de certaines sources par défaut (théorie du risque / récompense), et l’adaptation de son comportement pour réaliser avec succès une tâche (théorie de l'apprentissage social et du « self-efficacy »).

Ce macro modèle ne se concentre pas uniquement sur la recherche active du comportement informationnel mais plus globalement sur les pratiques d’accès à l’information. (ainsi la personnalité de l’acteur peut inhiber ou au contraire aider la recherche d'information). Ainsi ce modèle peut servir comme source d'hypothèses à vérifier, même si elles sont implicites. Cependant, ce modèle n'est pas complet. Les effets du contexte sur la personne ou sur sa motivation sont peu précis. C'est un méta-modèle, pas un modèle d’activité. Néanmoins, utiliser ce modèle dans un contexte professionnel pourrait être intéressant.

Enfin, d’autres modèles de recherche d’information médiatisée plus spécifiques pour internet ont été développés. Nous citerons ainsi le modèle cognitif d’Ingwersen (1992), le modèle épisodique de Belkin (1985), d'interaction stratifiée de Saracevic (1996). Les travaux de Marchionini (1995) complètent cette approche.

1.4. Critique et faiblesse du paradigme « orienté usages »

Suite à cette présentation, nous voyons trois principales critiques à ces modèles d’accès à l’information développée dans le cadre de ce paradigme : les méthodes, les résultats et les finalités de ces différents travaux de description, ne sont pas identiques. Ainsi concernant les finalités, Ellis s'intéresse davantage aux différences entre pratiques de recherche observables sur le terrain et Kuhlthau s’intéresse surtout à l'analyse des pratiques d’un point de vue plus psychologique et introduit l’analyse des sentiments dans ce processus. De même ces travaux s’appuient sur des corpus très différents les uns des autres.

Ensuite ces travaux décrivent soit des « pratiques d'accès à l’information » (Wilson, 1999), soit des pratiques de recherche, de repérage ou d’utilisation de l’information, soit des pratiques de recherche médiatisée et en particulier de « recherche documentaire » (Ingwersen, 1992). Une nouvelle approche théorique et méthodologique plus centrée sur le monde professionnel est nécessaire. Ces descriptions nous interrogent sur le nombre exact d’étapes nécessaires pour effectuer une recherche d’information : les modèles de Ellis (8 étapes), de Kuhlthau (6 étapes), de Tenopir (8 étapes), ou de Cheuk (10 étapes) sont là pour nous montrer la complexité de l’analyse et la difficulté d’arriver à des résultats uniques.

Par conséquent ce cadre large ne peut nous satisfaire puisque l’ensemble des modèles théoriques décrivant les pratiques d’accès à l’information sont plus ou moins analytiques et / ou descriptifs, presque toujours perçus comme linéaires et donc s’appuient sur des notions plus ou moins bien définies. Un problème majeur de ce paradigme « orienté usages » est bien entendu la définition des principales notions comme celle de « besoin d’information » ou « besoin informationnel » qui comme le souligne Le Coadic (1998) ou Kuhlthau (1997) doit être mieux défini pour pouvoir être utilisé correctement. Il est plus facile de définir des pratiques d’accès à l’information que d’appréhender les besoins. Vouloir baser son questionnement et son raisonnement sur ces modèles de pratiques d’accès à l’information ne nous semble guère pertinent. Il faut développer de nouveaux modèles qui tiennent compte de la réalité sociale et formuler d’autres hypothèses plus pertinentes.

2. Proposition pour une nouvelle approche théorique et méthodologique

2.1. Précisions sur le « paradigme activité »

Comme nous l’a déjà bien expliqué Henneron, Metzger et Polity (1997), la science de l’information a bien évolué ces cinquante dernières années, en passant par plusieurs paradigmes successifs.

Jusqu’au début des années 80, les travaux sur les recherches documentaires en Science de l’Information se sont déroulés sous le paradigme classique orienté système.

Ensuite, durant la décennie des années 80, un nouveau paradigme a émergé : le paradigme cognitif orienté-utilisateur. L’utilisateur et son interaction avec le système d’information sont devenus le centre d’intérêt de ce nouveau courant. Ainsi comme le cite Polity (2001), « le système d’information est considéré comme un système de communication entre un producteur d’information ou auteur et un utilisateur ».

Enfin, dans les années 90, le paradigme social « orienté usages » est apparu. Le courant de recherche anglophone serait les user studies. Les travaux de Dervin (1999), Wilson (1999), Ellis (1997) et Le Coadic (1998) peuvent être rattachés à ce courant de pensée qui s’intéresse d’abord aux usages. Pour Chaudiron et Ihadjadene (2002), « le paradigme usager considère que l’attention doit être portée sur les besoins réels de l’usager et son environnement. [..] le point commun de ces différentes approches est de proposer une modélisation des usagers et de leurs comportements ». Reste à bien définir ce que l’on peut entendre par usages et usagers.

Dans les années 1999-2005, un nouveau courant de recherche se développe, que nous dénommerons « paradigme activité », où l’acteur, celui qui se trouve dans l’action et qui agit, doit être au centre de l’analyse. Mais il est trop tôt pour parler de paradigme au sens américain du terme, étant donné la faiblesse des travaux dans ce domaine, même si Choo (1998) ou Järvelin (2003) nous ouvrent cette voie de recherche. Ce courant de recherche fait appel aux avancées et aux concepts développés par différentes théories, notamment sociales (comme la théorie des cadre de Goffman), psychologiques (théorie de l’activité avec Leont’eev et Kuuti et qui est très présent dans le courant « Interaction Homme-Machine ») et cognitives (la théorie de la cognition distribuée ou située avec Hutchins ou de l’analyse du travail cognitif de Fidel). Les approches retenues sont donc plutôt majoritairement de type sociocognitif (Hjørland, 1997), pour pouvoir expliquer le processus de recherche et d’utilisation de l’information professionnelle. En effet, nous voulons nous intéresser non pas à l’utilisateur, mais à l’information que l’acteur cherche et utilise (Henneron, et al., 1997). Et dans un contexte professionnel, nous devons prendre en compte la situation de travail. Ce courant de recherche considère que l’activité influence plus ou moins directement les pratiques de recherche et d’utilisation de l’information. La principale hypothèse est que les actions de recherche des personnes sont fortement contraintes par leurs activités professionnelles (Cote, 1997).

L’activité est une construction sociale et économique, soumise à de nombreuses contraintes comme le temps ou l’expérience (novice ou expert). L’activité est donc dynamique et complexe. La notion d’activité est sans doute très proche de la notion de « cadre » de Goffman (2001). Et différentes situations d’interaction existent entre acteurs comme dans les situations de coopération et de coordination, qui ont un impact direct sur les pratiques d’accès à l’information des professionnels (voir les travaux de Järvelin (2003) et de Fidel (2004)).

2.2. Pratiques d’accès à l’information professionnelle et activités informationnelles

Redéfinissant les principales notions de ce nouveau paradigme, dénommé « activité », nous rajouterons que la pratique informationnelle « peut être considérée comme l’ensemble des actions et des choix de l’individu lors d’une phase de recherche d’information en vue d’une action, provoquée par les nécessités des situations, par certains états inadéquats ou anomalies de connaissance ou manques informationnels pour réaliser ces activités et enfin par les problèmes informationnels ou les facteurs clés de succès, issus du contexte socioprofessionnel au sens large (le manque d’information n’est pas forcement voulu, ni explicite alors que le problème est davantage apparent). À partir de cette définition, la pratique informationnelle est encadrée par l’activité (ici l’activité de conception et de gestion de placements financiers), par la situation donnée, et le contexte socioprofessionnel au sens large ». Car non seulement l’activité fait partie du contexte pour la pratique informationnelle, mais en plus, elles partagent toutes deux ce même contexte.

Le contexte pour Goffman (2001) est pluriel, une organisation peut être considérée sous l’angle « technique, en fonction de son efficacité ou inefficacité en tant que système explicitement organisé en vue d’atteindre des objectifs préalablement définis » (p.226). Il peut l’être aussi sous l’angle politique, structural, culturel et en utilisant l’approche dramaturgique.

Une situation sociale pour Goffman (1991), est « un environnement fait de possibilités mutuelles de contrôle, au sein duquel un individu se trouvera partout accessible aux perceptions de ceux qui sont « présents » et qui lui sont similairement accessibles. Selon cette définition, une situation sociale se produit dès que deux individus se trouvent en présence mutuelle immédiate, et se poursuit jusqu’à ce que l’avant-dernière personne s’en aille. [..] Des règles culturelles régissent la manière dont les individus doivent se conduire en vertu de leur présence dans un rassemblement [...] ». Et « Toute définition de situation est construite selon des principes d’organisation qui structurent les évènements - du moins ceux qui ont un caractère social - et notre propre engagement subjectif » (p.146-147).

Comme nous l’explique clairement Dessinges (2002), « la situation traduit une forme typique et stabilisée d’environnement qui organise l’action qui doit venir, à un moment ou un autre, s’y dérouler » (p. 100). Et cette situation est définie par l’organisation de l’expérience de chacun ou plutôt par les différents modes de structuration de l’expérience (nous parlerons alors de cadres).

Il existe différentes sortes de cadres primaires pour Goffman (1991), les cadres naturels, dictés par des évènements extérieurs aux personnes (un phénomène naturel comme un tremblement de terre). Et les cadres sociaux, qui dépendent d’une action pilotée, comme le cadre de la conception de produits. Nous pensons en effet, que l’activité de conception constitue un ou plusieurs cadres et non pas une situation car les cadres primaires organisent les activités. Comme le rappelle Goffman (1991), « chaque type d’action appartient en propre à un idiome spécifique qui relève lui-même d’un cadre distinct ». En l’occurrence, le concepteur assimile, par l’expérience, des représentations et des schémas d’interprétation particuliers sur le phénomène de la conception de produits financiers. Mais ces cadres primaires peuvent évoluer en fonction des interprétations. Soit sous forme de transformation ou modalisation (strate modèle et modalisée), soit sous forme de fabrication (qui désoriente l’activité d’un ou plusieurs individus).

Si nous restons dans cette perspective goffmanienne, nous émettons l’hypothèse que le besoin d’information n’est en fait que le résultat de la perception d’une transformation de cadres, dans une situation donnée. Par exemple, un concepteur de produits connaît la procédure de création d’un fonds commun de placement action et il doit maintenant créer un fonds commun de placement pour l’innovation. Il y a une transformation du cadre primaire de l’activité de conception, qui passe du cadre de conception d’un FCP à celui d’un FCPI. Le concepteur mobilise un cadre de recherche d’information spécifique qui a fait ses preuves pour les FCP. Mais ce dernier évolue du fait de la demande de création d’un FCPI, car l’activité encadre cette pratique. Le besoin d’information naît alors d’un changement de cadres.

2.3. L’activité informationnelle et l’information organisationnelle au cœur de ce paradigme

L’« activité informationnelle », nouvelle notion qu’introduit Guyot doit être prise en compte aussi dans ce contexte : « L’activité d’information recouvre à la fois la manière dont un individu agence pour son compte informations et documents et mobilise des ressources disponibles dans des dispositifs et à travers des outils de plus en plus nombreux ». (Guyot, 2001).

Cette « activité informationnelle » bénéficie de la base théorique des recherches en science de l’information, notamment en terme de pratiques d’accès à l’information (Wilson, 1999). Mais il faut s’intéresser non seulement à l’activité de recherche et d’utilisation de l’information pour une tâche isolée, mais aussi à l’ensemble des activités de gestion et de production d’information pour l’activité principale (Hjørland, 1997). Lorsqu’un objectif est atteint, l’activité continue. Les acteurs sont des producteurs, des gestionnaires et des consommateurs d’information dans le cadre de leurs activités professionnelles (Guyot, 2001). Et progressivement les acteurs rationalisent et standardisent les outils technologiques pour gagner en efficacité. C’est tout qu’il faut prendre en compte.

Reprenant l’analyse de Choo (1998) nous pensons que l’analyse de l’activité informationnelle doit non seulement prendre en compte les pratiques de recherche et d’utilisation de l’information, mais aussi les pratiques de gestion et de production de cette information nécessaire pour l’action (voir schéma ci-dessous).

En 1998, Choo a comparé les principaux modèles de pratiques d’accès à l’information et a décomposé ce processus d’accès en trois étapes centrales : le besoin, la recherche et l’utilisation de l’information. Et il a ensuite examiné les effets cognitifs, affectifs et contextuels de chaque étape en fonction des modèles.


Figure 6 : Analyse multidimensionnelle du besoin à l’utilisation de l’information (Choo, 1998, p.61)

Puis en 2001, Choo a développé le cube de « l’information organisationnelle » qui représente les principales étapes de la prise d’une décision pour un professionnel dans une organisation type, avec les différentes variables qui doivent être prises en compte. Un besoin d’information émerge chez un professionnel qui se trouve dans une situation professionnelle affective et cognitive donnée. Avec le temps et les moyens disponibles dont il dispose, il se lance dans des recherches d’information appropriées créant ainsi des savoirs pour une prise de décision ultérieure à l’aide de l’information recueillie et de nouvelles connaissances.


Figure 7 : Le cube de l'information organisationnelle

Cette approche doit tenir compte de l’évolution paradigmatique et notamment de « l’activité informationnelle ». En reprenant donc la définition de Guyot, nous proposons de prendre en compte non seulement toutes les étapes, qui se situent en amont de l’utilisation de l’information (du besoin à la recherche d’information) mais aussi tout ce qui est en aval, à savoir la gestion et la production d’information professionnelle. En outre, chaque professionnel se trouve dans des situations différentes (contexte professionnel, affectif, cognitif, social). Mais en outre lorsqu’il s’agit de chercher, d’utiliser ou de gérer de l’information, le professionnel est contraint par les choix technologiques de son entreprise (présence ou non de systèmes de gestion électronique de documents (GED) ou de processus métiers (workflow) adaptés) et aussi de méthodes personnelles de travail acquises au fil de l’eau, en fonction de son métier et de son environnement. Naturellement, il ne faut pas considérer ce modèle comme un modèle linéaire. À partir d’une recherche d’information, nous ne sommes pas obligés d’utiliser immédiatement l’information trouvée, nous pouvons simplement la gérer (la mettre dans une base de données par exemple). Ensuite, nous pouvons utiliser l’information immédiatement, pour produire un document, sans se soucier de sa gestion ou de sa conservation ultérieure.


Figure 8 : Le cube de l'activité informationnelle avec les commentaires de Guyot

Des études précédentes ont déjà démontré l’influence directe de l’activité sur les pratiques de recherche et d’utilisation de l’information, dans certaines activités très encadrées. Par conséquent, nous proposons un nouveau modèle qui tient compte de la prépondérance de l’activité sur le besoin. L’activité professionnelle étant première, les besoins d’information découlent de cette activité (en dépit de Dervin, 2003). D’ailleurs dans la suite de notre présentation, nous nous intéresserons principalement à démontrer l’influence plus ou moins directe de l’activité de conception sur les pratiques d’accès à l’information de ces concepteurs, tout en tenant compte de leurs effets sur la gestion et la production de nouvelles informations.


Figure 9 : Le cube de l'activité informationnelle globale

Ce dernier modèle (figure n°9) représente donc l’ensemble des activités informationnelles d’un professionnel en tenant compte du cycle de vie de l’information et de l’ensemble des contraintes informationnelles liées à une activité donnée (prise en compte du contexte professionnel, des états affectifs, cognitifs du professionnel, de ses relations sociales avec ses collègues et supérieurs et des dispositifs technologiques collectifs et personnels que ce dernier peut utiliser).

2.4. Une méthode adaptée pour analyser l’activité informationnelle globale

Comme le concède Deschamps, il n’y a pas en science de l’information de méthodologie unique, elle doit pouvoir utiliser des analyses quantitatives et qualitatives à la fois. C’est là sa force, mais aussi sa faiblesse, elle doit savoir les utiliser avec parcimonie.

« Pour résoudre la plupart des problèmes en science de l’information, il est parfois nécessaire d’avoir recours à deux types de méthodologies mais selon nous, c’est plus une force qu’une faiblesse pour la discipline. La science de l’information s’est appliqué depuis une dizaine d’années au moins, à tirer parti des possibilités d’améliorer les analyses quantitatives et qualitatives concernant les relations dynamiques qui unissent des collectifs d’objets au sein de diverses communautés et leurs modes de représentations graphiques (analyses des communautés, cartographies de recherches, etc...) dans un ensemble de recherches formalisées dans la scientométrie. »

La méthodologie utilisée dans cet article est fortement dépendante de notre cadre théorique et des postulats sous-jacents expliqués ci-dessus. Ce cadre théorique postule que l’activité de conception influence les pratiques d’accès à l’information des professionnels, ici en l’occurrence des concepteurs de produits collectifs. Nous pourrions même aller plus loin en nous demandant si l’activité de conception n’influence pas non plus toutes les « activités informationnelles » des professionnels, de la recherche jusqu’à la production d’information. Mais cela est une autre problématique que nous n’évoquerons pas ici.

Pour démontrer l’utilité d’une approche duale, nous présenterons succinctement la méthode APAI (Activité, Produit, Accès à l’Information), que nous avons utilisé lors de nos précédents travaux et qui se compose d’une double approche, en premier lieu une approche constructiviste et ensuite une approche analytique.

Étant donné que la méthode APAI (Activité, Produit, Accès à l’Information) est d’abord une méthode qualitative, il suffit d’avoir un corpus somme toute modeste pour entreprendre une recherche et pour comprendre les pratiques de recherche et d’utilisation de l’information (ou d’accès à l’information) des financiers. À titre d’exemple, nous pouvons citer deux études antérieures que nous avons menées sur les concepteurs de produits de placements financiers (produits collectifs et dérivés) et où nous avons rencontré une vingtaine de financiers. Nous présenterons d’ailleurs ci-dessous les principaux résultats.

Le questionnaire traditionnel, basé sur une approche constructiviste « Sense-Making » concerne trois problèmes majeurs :

  1. L’analyse de l’activité ;
  2. Le problème de l’accès à l’information (la recherche et l’utilisation de l’information) et plus globalement de la place de l’activité informationnelle au cœur de cette activité ;
  3. Les représentations des concepteurs sur les nouveaux services financiers ;

L’analyse analytique se compose de cinq étapes principales et concerne plus spécifiquement les relations entre le produit et l’accès à l’information :

  • Construction basique et schématique du produit financier avec les plus importantes variables. (Utilisation de la “ notice ” et du rapport de gestion) ;
  • Présentation de ce schéma aux financiers ;
  • Enregistrement du discours des financiers ;
  • Analyse du discours avec les autres commentaires de professionnels et modification en conséquence, du schémas du produit financier ;
  • Identification des pratiques d’accès à l’information des concepteurs.

La démarche consiste donc à construire une représentation basique, mais fonctionnelle du produit de placement financier puis ensuite de demander à des financiers de commenter ce schéma. Un enregistrement audio de leurs discours est recommandé, à défaut une prise de note rapide pourra suffire. Par la suite, nous réaliserons une analyse de discours et nous identifierons les pratiques d’accès à l’information de ces derniers.

Nous vous proposons ci-dessous de découvrir la première version utilisée pour construire une représentation basique du produit financier avec cinq caractéristiques principales (Caractéristiques Réglementaires, Administratives, Financières, de Fonctionnement, Commerciales). Pour nous, une caractéristique principale regroupe sous un même nom commun (nous pourrions même parler de rubrique) un ensemble d’éléments informationnels plus ou moins homogènes.


Figure 10 : Schématisation du produit collectif de type OPCVM en cours de constitution (version 0.4)

Cette version initiale, qui n’a pas été validée par les professionnels, reprend simplement les principaux éléments présents dans un produit de placement collectif (de type OPCVM). Ces éléments sont tirés des descriptions des différentes notices d’information dénommées « notices AMF » (AMF pour Autorité des Marchés Financiers) et de divers prospectus commerciaux distribués aux investisseurs épargnants. Cependant cette première version n’est pas complète et ne peut servir que comme base initiale à notre travail d’analyse.

Au cœur de notre méthodologie de recherche APAI, les phases dites « de présentation et d’analyse du schéma basique » (ici la figure n°10) sont essentielles car elles nous permettent de déterminer les indices (ou éléments) informationnels susceptibles d’amener le (ou les) concepteur(s) à réaliser ses tâches (ici la conception d’un nouveau produit financier).

Le concepteur a sûrement défini depuis longtemps, un cadre stéréotypé ou un scénario général pour concevoir ce produit financier. La présentation de la description basique éveillera chez notre interviewé des réactions immédiates qui nous permettront d’améliorer notre schémas. Mais attention, il ne faut pas généraliser ce principe, ce n’est pas simplement ce cadre ou ce scénario linéaire qui le guidera, il construira surtout le produit financier à partir des indices informationnels découverts au gré de sa démarche, au sens sémiologique du terme.

En tout cas, le concepteur est fortement contraint par le cadre de son activité, que nous faisons apparaître ici. Au fur et à mesure que de nouveaux indices informationnels sont trouvés, le concepteur déclenche des phases de recherche et d’utilisation de l’information successivement, jusqu’à l’aboutissement d’un produit vendable, dont la décision de commercialisation dépendra de la direction. Il est donc important de bien définir ces indices informationnels pour comprendre les pratiques d’accès à l’information.

3. L’exemple des concepteurs de produits financiers

Cette proposition pour un nouveau cadre de réflexions théoriques et méthodologiques doit pouvoir être applicable et pouvoir être validé sur le terrain. L’exemple ci-dessous, qui veut être un résumé de plusieurs travaux entrepris précédemment et réunis ici, doit nous permettre de démontrer l’intérêt d’une telle approche.

3.1. Description de l’activité de conception des produits de placement financier

L’activité de conception de produits financiers est une activité complexe, que ce soit pour des produits collectifs ou des produits dérivés : Le paradigme « usage » ne nous aurait pas aidés vraisemblablement car elle se concentre plus sur une partie du travail du professionnel sans se soucier de toute son activité informationnelle globale.

  • Si nous prenons le cas des produits dits collectifs de type OPCVM (Organisme de Placement Collectif en Valeurs Mobilières), l’activité est difficile à définir, il n’y a pas un « concepteur » unique mais un ensemble d’acteurs, issus de différentes entités, qui travaillent ensemble pour vendre des produits de placements collectifs, par exemple des sociétés d'investissement à capital variable (SICAV) ou des fonds commun de placement (FCP). En général, un promoteur et / ou un distributeur fait appel aux services d’une société de gestion (qui gère les actifs du fonds : article L. 214-25 du code monétaire et financier) et d’un dépositaire (qui s’assure de la régularité des décisions de la société de gestion : articles 214-16 et 214-26 du Code Monétaire et Financier) pour monter le nouveau fonds ;
  • Si nous prenons le cas des produits dits dérivés comme la conception de bons d’option (ou warrants), puis sa commercialisation s’appuie là encore sur de nombreux acteurs des différents services de la banque (services de front office, de back office, commerciaux, direction, etc.) sont nécessaires pour pouvoir lancer de nouveaux bons d’options.

Pour pouvoir analyser correctement ces pratiques d’accès et ces « activités informationnelles » nous devons d’abord analyser correctement ces activités principales en utilisant alors le questionnaire qualitatif, qui se révèle être d’un précieux secours. Ainsi les relations entre les dépositaires, les promoteurs et les gestionnaires de produits financiers peuvent être expliqués et la circulation de l’information entre ces acteurs peut être mieux expliquée. De façon globale, nous avons rencontré quinze promoteurs et distributeurs, trois dépositaires, deux gestionnaires et quatre concepteurs de bons d’option (sur les six ou sept de la Place de Paris) pour pouvoir faire cette analyse et qui ont réellement répondu à notre enquête.

Dans le cas des produits dits collectifs, nous trouvons 5 étapes principales :

Étape 1 : Cette étape concerne le choix du produit et la stratégie générale pour la vente du produit collectif (nom, cible).
Étape 2 : Cette étape concerne le choix de la stratégie d’investissement et des différentes spécifications du produit financier.
Étape 3 : Cette étape concerne les dernières modifications en matière de communication et de réglementation (recherche des agréments).
Étape 4 : Cette étape concerne le lancement du produit (présentation aux commerciaux des promoteurs et distributeurs, vente auprès des épargnants).
Étape 5 : la dernière étape concerne la gestion du produit avec différentes options (possibilité de modification du produit avec l’aide d’une partie ou de l’ensemble des participants, qui étaient présents lors de la conception de ce produit).


Figure 11 : Les principales étapes de la conception d'un produit collectif

Comme le rappellent Broady-Preston and Hayward (2001), « In product launch decisions, both customer feedback and competitor data were deemed crucial », les souhaits des clients et les propositions des concurrents sont des données précieuses pour lancer de nouveaux produits.

« L’activité bancaire consiste à être attentive aux besoins des clients et à la réponse des concurrents. Il faut être capable de créer un produit similaire dans les mois qui viennent pour pouvoir répondre à ce besoin. Sur les marchés financiers, c’est la tendance du marché, c’est l’anticipation. Il faut être très réactif. Sur les autres domaines, cela résulte plus d’une perception de longue haleine ou un trou dans la gamme de l’épargne » (promoteur n° 3).

Or c’est généralement le promoteur ou le distributeur du produit qui connaît le mieux les besoins des clients. « Pour commercialiser un produit qui marche, il faut qu’il corresponde aux attentes des clients. Sur une vision globale, il ressort toujours une tendance » (promoteur n°4).

L’étape n°1 (de la figure n°11) est caractéristique de cet état d’esprit de recherche d'information tout azimut, permettant d’enclencher le processus de création d’un nouveau produit financier.

« La conception, c’est beaucoup plus qualitatif. Créer, cela ne sert pas (toujours). La clé, c’est l’information. Il y a deux moyens importants : il faut se tenir informé des différents produits existants et de l’actualité juridique, fiscale et concurrentielle » (promoteur n° 1).

Sans oublier les recherches sur les attentes et les besoins des clients : « Les informations liées au mode de vie sont pour moi importantes, notamment l’accélération en terme de changement » (promoteur n° 6).

Généralement le promoteur/distributeur utilisera plusieurs techniques de recherche telles que la lecture de la presse, les groupes de travail, etc.

« Le groupe de travail va décider de l’avenir du futur produit et de sa mise en place. [...] Un exemple d’activité habituelle du groupe. On peut disséquer la presse spécialisée ou regarder les études de marché sur la conception de tel ou tel type de produits » (promoteur n° 4).

D’autant que cette recherche n’est pas l’apanage uniquement des promoteurs/distributeurs. L’idée peut provenir aussi de la société de gestion, notamment s’il s’agit d’un produit plus technique.

« Généralement les idées viennent du service marketing vers l’Asset Management. Mais pour les OPCVM garantis, il s’agit d’un produit exotique, qui ne provient pas du service marketing mais du service OPCVM. [...] L’exemple du multi fonds provient d’un avantage fiscal : il s’agit d’un concept marketing plus d’une discussion avec la société de gestion » (Promoteur 5).

En tout état de cause, dans l’étape n° 2, le rôle du promoteur est limité et donc la recherche d’information est avant tout une recherche de compromis avec les autres services.

« La création du produit [le produit multi fonds] a été guidée par la fiscalité et le service marketing. Mais il a fallu regarder la concurrence et voir à quelle condition un tel produit pouvait être créé. (Il a fallu regarder la tarification et ne pas proposer la même chose) » (promoteur n° 5).

En revanche, dans les étapes n° 3 et n° 4, les promoteurs et distributeurs sont aussi actifs. Mais ils ne rechercheront pas les mêmes informations que dans les deux précédentes étapes et peut-être, auront-ils plus de point de repères pour agir (les sentiments d’incertitude diminueront au fur et à mesure de leurs actions).

Ils utiliseront essentiellement l'information recueillie et retravaillée par les autres acteurs (dépositaires, société de gestion, autres services) pour promouvoir le nouveau produit.

Par exemple pour l’étape n° 3 : « La durée de conception d’un produit est très variable (de deux semaines pour commercialiser un produit de la concurrence jusqu’à six mois). Une fois que le produit et sa tarification sont décidés, il faut rédiger l’offre préalable avec le service juridique. Il faut ensuite l’éditer (voir avec un éditeur). En d’autres termes, on doit travailler de façon parallèle (utilise la méthode PERT). Le délai COB est un bon exemple, l’éditeur qui imprime aussi. Tant que je n’ai pas tout, le produit ne peut être commercialisé » (promoteur n° 1).

Il y a alors une recherche d'information qui est menée. Mais elle s'effectue dans un contexte différent et est similaire à une recherche d'approbation (recherche des termes convaincants pour les futurs investisseurs du produit).

« Les autres intervenants travaillent une fois que le concept est défini (explique les points forts et faibles) et que nous avons décidé de faire un mailing et après intervient en conseil et en relecture » (promoteur n° 1).

Concernant la phase 4, les promoteurs et/ou les distributeurs se mettront à l’œuvre pour vendre leur nouveau produit.

« Pour choisir les produits financiers, on produit d'une part la fiche technique des produits et d’autre part, une lettre trimestrielle qui est envoyée à tous les clients et tous les prescripteurs (par exemple notaires, experts comptables) » (promoteur n° 7).

Cette étape n’est pas la plus simple pour les promoteurs et distributeurs qui doivent persuader leurs clients d’investir dans ces nouveaux fonds, pas toujours éprouvés.

« Le problème est que l'on ne maîtrise pas un produit qui vient d'être créé. Il faut attendre pour un produit financier qui vient de sortir (pour qu’il fasse ces preuves) [...]D'ailleurs le fonds n'a pas marché tout de suite, il y a eu une période de gestion plus ou moins longue où il était difficile de savoir ce que cela allait donner. » (promoteur n° 7).

Enfin, les produits peuvent évoluer au fil de l’eau, suivant le type de produit. Et cela oblige alors les promoteurs et distributeurs à l’adapter. « Aucun produit n'est conçu pour sa performance (prévue), car il est vivant : sa caractéristique, c'est d'évoluer, il est en perpétuelle évolution » (promoteur n° 7).

De même pour l’analyse de l’activité de conception d’un produit dérivé tel que le bon d’option, nous décomposons l’activité en 4 grandes étapes, de la conception jusqu’à la vente de ces warrants.


Figure 12 : Les différentes étapes de conception d'un produit dérivé

3.2. L’activité informationnelle au cœur de la conception des produits de placements financiers

Dans ces deux activités de conception décrite très brièvement ici, nous nous rendons compte que la conception de produits financiers passent par des nombreuses situations dont des situations autonomes, de coordination et de coopération :

  • La situation autonome : « La capacité et l’aptitude d’un acteur à élaborer ses propres règles d’actions » (Gilbert de Tersac et Erherd Friedberg).
  • La situation de co-présence pragmatique : « La mise en relation première entre deux (ou plusieurs) acteurs en quête d’un consensus pour réaliser en commun certains objectifs » (Gramaccia, Laborde et Maurin).
  • La situation de coopération avec un espace discrétionnaire : « Les acteurs peuvent choisir la solution mais dans un cadre de travail défini ” (Gilbert de Tersac et Bruno Maggi).
  • La situation de coordination établie : « Chaque acteur sait ce qu’il a à faire. ». En fonction donc des situations rencontrées sur le terrain, les pratiques d’accès à l’information des professionnels financiers s’adaptent aux situations et utilisent des stratégies spécifiques. Ils optent pour des stratégies principalement axées sur la recherche d’information (étapes 1 et 2), puis sur l’utilisation d’information (étapes 3 et 4). Enfin ils gèrent au fil de l’eau l’information (étape 5) en produisant des rapports mensuels et annuels à leurs clients.


Figure 13 : Les situations d'autonomie, de coopération et de coordination pour la conception de produits financiers collectifs

3.3. Schématisation des produits de placement financier

Nous avons donc développé deux schématisations des produits financiers, pouvant déboucher sur la mise en place de langages de description financiers, très utile en informatique documentaire. La première description dénommée LPF (ou Langage des Produits Financiers) s’intéresse essentiellement aux organismes de placements collectifs (OPCVM) et la seconde LdBO (ou langage de description des bons d’option) aux bons d’option ou warrants. Considérant le produit financier comme un produit numérique et intangible, ces instruments auront deux avantages principaux pour notre étude :

  1. Ce sont des outils, qui fixent un cadre rigoureux pour l’élaboration de ces produits ou plus précisément de nouveaux produits financiers, comme des produits collectifs ou de produits dérivés. Ce sont des représentations formalisées, qui fixent avec une grande précision toutes les caractéristiques des produits financiers (produits collectifs et produits dérivés). Et permet de décrire la composante informationnelle du produit.

Par suite, ces instruments analytiques nous renseignent sur les informations recherchées au travers de commentaires précis des financiers à la vue du schéma LPF, décrits ci-dessus. Ces commentaires nous permettent en effet de ne pas oublier d’informations importantes dans le cadre de l’activité de conception de produits financiers et aussi de juger de l’importance ou de la prépondérance de certains éléments sur d’autres dans l’activité décrite. À titre d’exemple, nous vous présentons ci-dessous deux schématisations spécifiques aux produits financiers :

3.3.1. La schématisation d’un produit de placement collectif

Suivant la méthodologie appelée APAI (Activité, Produit et Accès à l’Information) décrite ci-dessus, auprès d’une vingtaine de financiers, nous avons pu améliorer notre premier schéma basique du produit collectif (figure n°10). Nous avons alors modifié le produit financier, en prenant en compte de nouveaux éléments prépondérants pour décrire ces produits. Nous avons proposé six caractéristiques principales en renommant les caractéristiques réglementaires en caractéristiques identitaires et en rajoutant des caractéristiques fiscales.

Ne pouvant mettre dans cet article l’ensemble des entretiens que nous avons recueillis sur le terrain, pendant plusieurs années pour notre thèse, nous nous contenterons seulement de certains commentaires très significatifs qui ont permis de faire évoluer favorablement la description du schéma pour les produits collectifs :

- En premier lieu, nous trouvons les caractéristiques administratives, qui s’intéressent exclusivement à la vie du produit (avec la réglementation en vigueur, le descriptif du fonds, le type de fonds, l’agrément, la date d’échéance, la clôture de l’exercice par exemple).

« Il faudrait mieux rajouter dans les caractéristiques administratives, la réglementation » (Dépositaire 1).

- Ensuite nous trouvons les caractéristiques identitaires, c’est à dire les principaux acteurs intervenant dans le processus de création et de gestion des produits de placements collectifs, avec le promoteur, le distributeur, la société de gestion (qui gère l’argent du fonds) et le dépositaire, le conservateur et le commissaire aux comptes.

« Pour moi, il y a vraiment trois grands [responsables]…. Il y a le dépositaire, le gestionnaire et le distributeur » (Dépositaire 1).

- Ensuite les caractéristiques financières décrivent le fonctionnement du fonds (description du placement, classification, techniques) et le type de valeurs (composition du portefeuille, zones géographiques, exposition aux risques, affectation des résultats).

« Dans les caractéristiques financières, la seule chose est que je voyais, c’est le rapport exercice. Je l’aurais mis ailleurs dans l’administratif » (Dépositaire 3).

- Les caractéristiques de fonctionnement décrivent l’ensemble des conditions d’exécution, des conditions de souscription, des conditions de rachat, le rapport exercice, et la périodicité de calcul de la valeur liquidative, ainsi que le libellé de la devise du fonds.

- Ensuite les caractéristiques commerciales concernent essentiellement la politique de gestion, les actifs gérés, la valeur liquidative, la durée minimale conseillée, l’apport des titres, la commission de souscription, la commission de rachat, les frais de gestion, les performances, et les souscripteurs.

« Concernant les frais de gestion nous avons des frais de gestion variable et des frais de gestion fixe. En outre, les méthodes de calcul des frais de gestion sont variables entre chaque produit ». (Dépositaire 2).

- Enfin, les caractéristiques fiscales rappellent simplement la fiscalité qui s’applique aux différents produits financiers commercialisés, et les principales modalités d’imposition sur les revenus et sur les plus-values.

Produit Financier [Caractéristiques Identitaires, Caractéristiques Administratives, Caractéristiques Financières, Caractéristiques Fonctionnement, Caractéristiques Commerciales, Caractéristiques Fiscales]

- Caractéristiques Administratives [Réglementation, Identification, Fonds, Agrément, Date de création, Échéance, Édition de la notice, Clôture de l’exercice, Centralisateur]

- Caractéristiques Identitaires [Promoteur, Distributeur, Dénomination, Forme juridique, Société de gestion, Dépositaire, Commissaire, Conservateur]

- Caractéristiques financières [Description du placement, Politique de gestion, Actifs gérés, Classification, Techniques, Indice de référence, Composition du portefeuille, Zones géographiques, Exposition aux risques, Affectation des résultats, Capital Garanti, Ratios, Performances]

- Caractéristiques de fonctionnement [Conditions d’exécution, Conditions de souscription, Conditions de rachat, Rapport exercice, Périodicité de calcul de la valeur liquidative, Libellé devise]

- Caractéristiques Commerciales [Valeur liquidative, Durée minimale conseillée, Apport des titres, Commission de souscription, Commission de rachat, Frais de gestion, Souscripteurs]

- Caractéristiques Fiscales [Fiscalité, Éligibilité, Imposition revenus, Imposition Plus-values]


Figure 14 : Schématisation d'un produit collectif de type OPCVM

3.3.2. La schématisation finale d’un bon d’options (warrant)

Nous avons procédé de même pour décrire un bon d’option sous la forme de 6 caractéristiques principales : administratives, réglementaires, financières, de fonctionnement, commerciales, fiscales (pour plus de détails sur la méthode, voir mes travaux antérieurs).

  • La partie réglementaire signale la dénomination du produit, sa forme juridique, son identification et la réglementation qui entoure la conception des produits dérivés ;
  • La partie administrative précise la date et le numéro d’agrément du produit, la date d’émission du produit et de la notice d’information, l’échéance du produit et sa durée de vie ;
  • La partie financière concerne la description du produit dérivé, avec les techniques employées, le type et la composition du sous-jacent, l’exposition aux risques, et les souscripteurs ;
  • La partie du fonctionnement du produit dérivé rappelle brièvement les conditions d’exécution et de souscription, les quotités de négociation et la date de l’exercice ;
  • La partie commerciale précise la politique de gestion, les cours offert et demandé, le spread, le prix d’exercice, la valeur intrinsèque, la durée conseillée, l’apport des titres, la parité, l’effet de levier, les frais de courtage, la devise, l’élasticité, le delta, le thêta, le gamma, le vega, le rho, le gearing, le point mort, le premium et la valeur temps du produit ;
  • La partie fiscale rappelle la fiscalité de ce type de produit et le mode d’imposition.

3.4. Identification des pratiques d’accès à l’information des concepteurs de produits de placement financier

Par suite, et avec l’aide des commentaires des financiers recueillis sur le terrain, nous pouvons décrire les pratiques d’accès des trois principaux acteurs (promoteur, gestionnaire et dépositaire), qui sont très liées les unes par rapport aux autres du fait de cette activité. Il est possible à l’aide du descriptif détaillé ci-dessus (le langage de description des produits financiers ou LPF), du moins partiellement, de faire apparaître dans le tableau ci-dessous, les situations de recherche et d’utilisation d’information de chaque acteur (les 10 situations d’accès à l’information décrites par Cheuk (1999)) par rapport aux zones de coopération et de coordination du projet (décrites par de Tersac et Maggi).

Les stratégies des acteurs vont donc dépendre de ces situations d’accès à l’information rencontrées sur le terrain et de ces zones de coopération et de coordination qui ne peuvent donc pas être totalement négligées.


Figure 15. : Les différents caractéristiques, les situations d’accès à l’information et les zones de coordination et de coopération dans la conception d’un produit financier

Ce tableau est censé reproduire le cheminement de pensée des acteurs (ici nous pouvons prendre le cas des dépositaires), lorsqu’ils doivent construire un produit financier. En d’autres termes, nous précisons ici les situations d’accès à l’information, que les dépositaires rencontrent dans leurs recherches d’éléments, dans les principales caractéristiques du produit.

Et nous voulons clarifier la relation entre les acteurs dans le processus de recherche. Par exemple, le dépositaire recherche l’approbation auprès des autorités, en demandant un agrément pour commercialiser le produit de placement financier. Les dépositaires se trouvent alors dans une situation de choix (pour s’assurer de l’obtention de l’agrément) et de recherche d’approbation (en cas de demande d’agrément du produit par l’administration) et aussi de situation d’attribution d’approbation.

Les zones de coopération et de coordination reposent quant à elles sur des zones d’actions délimitées par les lois, les règles, les sociétés, les pratiques, etc. Nous pouvons prendre comme exemple le cas de la périodicité de calcul de la valeur liquidative :

« Nous avons des marges de manœuvres. Si la société est au-dessous des 100 millions de francs, alors la périodicité peut être choisie. La périodicité dépend de la taille de l'actif du fonds » (dépositaire n° 3).

Il en est de même pour les produits dérivés où les pratiques d’accès à l’information des émetteurs sont très liées à l’activité de conception. Il est possible à l’aide d’une schématisation détaillée, du moins partiellement, de faire apparaître les situations de recherche et d’utilisation d’information de chaque acteur par rapport à leurs niveaux d’autonomie vis-à-vis du projet.


Figure 16 : Les principales caractéristiques du produit financier, les situations d’accès à l’information et zones de coopération et de coordination

L’activité de conception de produits collectifs ou dérivés agit donc bien sur les situations d’accès à l’information et donc modifie les pratiques et les stratégies informationnelles des professionnels. Comme nous le constatons dans ces deux exemples, le nouveau cadre théorique et méthodologique que nous venons de présenter est une réponse partielle à la description des pratiques d’accès à l’information professionnelle. Ces exemples prennent en compte davantage les aspects de gestion et de production d’information, qui sont présents dans notre modèle, ainsi que les différents dispositifs techniques collectifs et personnels, pour rendre compte des « activités et des pratiques informationnelles » des financiers. Mais nous pensons qu’il est nécessaire de réaliser de nouvelles études sur d’autres terrains pour pouvoir cerner cette problématique complexe.

4. Conclusion et perspectives

Cette recherche propose une nouvelle approche théorique et méthodologique, suite à l’évolution paradigmatique constatée dans les travaux actuels. Nous sommes en train de passer d’un paradigme « orienté usages », à celui d’un paradigme « orienté activité » lorsqu’il s’agit d’étudier des pratiques d’accès à l’information professionnelle. Ce travail souligne ainsi la nécessité de prendre en considération la spécificité de l’information professionnelle au sens large, qui dépend de l’activité des acteurs étudiés. Nous devons nous intéresser non seulement au processus d’accès à l’information (information seeking and use behaviour), mais aussi à l’ensemble des « activités informationnelles » dans lequel est placé notre acteur comme le rappelle Guyot (2001).

D’un point de vue théorique, le modèle de « l’activité informationnelle globale » doit mettre l’accent sur les informations indispensables à l’activité et au contexte professionnel. En d’autres termes comme l’a remarqué Järvelin (2003), les multiples dimensions du travail, symbolisées par les nombreuses relations existantes entre les différentes tâches de chaque activité, ainsi que les diverses dimensions documentaires absentes de la plupart des autres courants de recherche cités plus haut, doivent être prises en compte.

D’un point de vue méthodologique, ce modèle de « l’activité informationnelle globale » recommande l’utilisation de plusieurs méthodes qualitatives conjointes, plutôt de type sociocognitif, mais pas seulement, pour connaître précisément les activités informationnelles des professionnels. Il nous permet de comprendre le processus de la chaîne documentaire partant de la conception de documents, jusqu’à sa diffusion (cas des notices d’information dans le cas des bons d’option et des notices et des brochures publicitaires dans le cas de la conception de produits collectifs). L’utilisation conjointes de plusieurs méthodes qualitative de type APAI (Activité, Produit, Accès à l’Information), proposée ci-dessus doit nous permettre de mieux décrire les nécessités de cette activité et de comprendre la logique de l’acteur (on ne peut pas parler de besoin émergent, ni d’usager).

D’un point de vue pratique, ce modèle souhaite proposer une réponse partielle à la problématique de l’efficacité de l’accès à l’information professionnelle en envisageant une sélection des meilleures pratiques informationnelles pour une activité donnée. Il peut aussi permettre de réfléchir à une amélioration des systèmes d’information des organisations au niveau de la gestion électronique des documents ou des processus métiers, avec la mise en place de langages de description informatiques dédiés à ces activités et issus directement des schématisations.

En résumé, le modèle de « l’activité informationnelle globale », présenté ci-dessus, doit nous permettre de développer de meilleures représentations des pratiques d’accès à l’information pour une activité professionnelle donnée et une meilleure visibilité des « activités et pratiques informationnelles » au cœur de cette activité.

Notes

(1) Nous prions notre lecteur de nous excuser pour la traduction délicate de certaines définitions anglo-saxonnes, certaines notions comme « to search » et « to seek », qu’il est délicat de traduire en français : nous avons pris d’ailleurs le parti de traduire arbitrairement le verbe « to search » par rechercher et « to seek » par chercher.
(2) Information Behavior is the totality of human behavior in relation to sources and channels of information, including both active and passive information seeking, and information use. Thus, it includes face-to-face communication with others, as well as the passive reception of information as in, for example, watching TV advertisements, without any intention to act on the information given.(Wilson, juin 1999)
(3) Information Seeking Behavior is the purposive seeking for information as a consequence of a need to satisfy some goal. In the course of seeking, the individual may interact with manual information systems (such as a newspaper or a library), or with computer-based systems (such as the World Wide Web).(Wilson, juin 1999)
(4) Information Searching Behavior is the 'micro-level' of behavior employed by the searcher in interacting with information systems of all kinds. It consists of all the interactions with the system, whether at the level of human computer interaction (for example, use of the mouse and clicks on links) or at the intellectual level (for example, adopting a Boolean search strategy or determining the criteria for deciding which of two books [chosen] from adjacent places on a library shelf is most useful), which will also involve mental acts, such as judging the relevance of data or information retrieved.(Wilson, juin 1999)
(5) Information Use Behavior consists of the physical and mental acts involved in incorporating the information found into the person's existing knowledge base. It may involve, therefore, physical acts such as marking sections in a text to note their importance or significance, as well as mental acts that involve, for example, comparison of new information with existing knowledge. (Wilson, juin 1999)

Bibliographie

BATES, Marcia J. (2002). Towards an integrated model of information seeking and searching. In T. WILSON, M. BARRULAS (Ed.). The New Review of Information Behaviour Research. Studies of information seeking in context. Volume 3. p. 1-16.

BELKIN, Nicholas. J., VICKERY, Alina (1985). Interaction in information systems: An review of research from document retrieval to knowledge-based systems. Cambridge : University Press. 250 p.

BERNHARD, Paulette (1998). Apprendre à « maîtriser » l’information : des habiletés indispensables dans une « société du savoir ». Revue scientifique virtuelle, éducation et francophonie. Les bibliothèques à l’ère électronique dans le monde de l’éducation, [en ligne], [consulté le 12 février 2004], vol. XXVI, n°1, automne hiver 1998. 22 p. Disponible sur http://www.acelf.ca/c/revue/revuehtml/26-1/09-bernhard.html.

BROADY-PRESTON Judith and HAYWARD, Tim. 2001. « Strategy, information processing and scorecard models in the UK financial services sector ». Information Research [en ligne]. [consulté le 22 juinr 2005], vol. 7, n° 1, 17 p. Disponible sur : http://informationr.net/ir/7-1/paper122.html.

CASE, Donald O. (2002) Looking for information: a survey of research on information seeking, needs and behavior. San Diego: Academic Press. 370 p.

CHAUDIRON, Stéphane et IHADJADENE, Madjid (2002). « Quelle place pour l’usager dans l’évaluation des SRI ? ». In Recherches récentes en Sciences de l’Information, convergences et dynamiques. Actes du colloque MICS-LERASS, Toulouse : ADBS Éditions, 21-22 mars 2002. p. 211-233.

CHEUK, Wai-Yi B. (1999). The derivation of a "situational" information seeking and use process model in the workplace: employing sense-making. Paper presented at International Communication Association annual meeting, San Francisco, California, [en ligne], [consulté le 12 février 2004], 27 mai 1999. http://communication.sbs.ohio-state.edu/sense-making/meet/m99cheuk.html, accessed February 15, 2004)

CHOO, Chun W. (1998). The Knowing Organization, How organizations use information to construct meaning, create knowledge and make decision. New York : Oxford University Press. 298 p.

COTE, Christian (1997). Conception de systèmes d’information utilisés dans le cours d’une activité: méthodologie et outils de formalisation pour l’identification des opportunités informationnelles. In ISKO, Lille. 10 p.

DERVIN, Brenda (1999). On studying information seeking methodologically: the implications of connecting metatheory to method. Information Processing and Management, vol. 35, p. 727-750.

DERVIN, Brenda (2003). A Sense-Making Methodology primer: What is methodological about Sense-Making. Paper presented at the meeting of the International Communication Association, San Diego, CA.

DESSINGES, Catherine. (2002). La communication des ONG : l’exemple de Handicap International à la télévision, une approche interactionniste des actes du discours. Lyon. 4 vol., 405 p. Th. Doct. : Sci. Info.-Com. : Lyon : 2002.

DESCHAMPS, Jacqueline. (2005). Pourquoi une revue suisse de science de l’information ? Revue électronique suisse de science de l'information (RESSI), [en ligne], [consulté le 12 février 2004], vol. 1. janvier 2005. p. 2-17. http://campus.hesge.ch/ressi/Numero_1_janvier2005/articles/HTML/RESSI_00...

ELLIS, David et HAUGAN, Merete (1997). Modelling the information seeking pattern of engineers and research scientists in an industrial environnement. Journal of Documentation. September 1997, p. 384-403

ELLIS, David, COX, Deborah & HALL Katherine (1993). A comparison of the information seeking patterns of researchers in the physical and social sciences, Journal of Documentation, 49(4), pp. 356-369.

FIDEL, Raya et PEJTERSEN, Annelise M. (2004). From Information Behavior Research to the Design of Information System: the cognitive Work Analysis Framework. Information seeking in context - ISIC 2004. Dublin : September 2004. p. 2-20.

GUYOT, Brigitte (2001). Une activité méconnue : l'activité d'information. Communication au colloque ICUST (France Telecom recherche), « penser les usages », Paris, ENST, 12-14 juin, 12 p.

GOFFMAN, Erving (1991). Les cadres de l’expérience (Frame Analysis). Paris: Éditions de Minuit. 573 p.

GOFFMAN, Erving. (2001). La mise en scène de la vie quotidienne, Lonrai : Les éditions de Minuit, 2001. 241 p.

HENNERON, Gérard, METZGER, Jean-Paul, POLITY Yolla (1997). Information et activité professionnelle, Rapport Intermédiaire, en sciences sociales et humaines, Ersico, Université Lyon 3. 12 p.

HJØRLAND, Birger (1997). Information seeking and Subject Representation. An activity-Theoretical Approach to Information Science. Wesport : Greenwood, 1997. 213 p.

HUTCHINS, Edwin (2000). Distributed Cognition : state of art and perspectives. in Médiation Technique et Cognition : cognition située, individuelle et collective, Bonas : ArCo, 10-21 juillet 2000. p. 1-32.

INGWERSEN, Peter (1992). Information Retrieval Interaction. Londres :Taylor Graham, 1992. 246 p.

JÄRVELIN, Kalervo and WILSON, Tom D. (2003). On conceptual models for information seeking and retrieval research. Information Research, [en ligne], [consulté le 12 février 2004], 9(1) paper 163. http://InformationR.net/ir/9-1/paper163.html, accessed February 12, 2004.

KUHLTHAU, Carol C. (1996). The Concept of a Zone of intervention for identifying the role of intermediaries in the Information Search Process. Annual Conference Proceedings of American Society for Information science, ASIS 1996, [en ligne], [consulté le 12 février 2004], 6 p. http://www.asis.org/annual-96/ElectronicProceedings/kuhlthau.html

KUHLTHAU, Carol C. (1997). The influence of uncertainty on the information seeking behavior of a securities analyst. In: P. Vakkari, R. Savolainen, and B. Dervin, eds., Information seeking in context: proceedings of an International Conference on Research in Information Needs, Seeking and Use in different Contexts, Finland (Tampere), 14-16 août 1996. London: Taylor Graham, 1997, 467 p.

KUHLTHAU Carol C. (2001). The Information Search Process (ISP): A Search for meaning rather than answers. PowerPoint Presentation for Rutgers University [en ligne]. 9 p.

LE COADIC, Yves (1998). Le besoin d’information, Formulation, Négociation, Diagnostic. La Ferté-Macé : ADBS Éditions, 4e trimestre 1998, 191 p. (Série Etudes et techniques)

MARCHIONINI, Gary (1995). Information seeking in electronic environments. New York : Cambridge University Press, 1995. 224 p.

MIWA, Makiko (2003). Situatedness in users’ evaluation of information and information services. In T. WILSON, M. BARRULAS (Ed.). The New Review of Information Behaviour Research. Studies of information seeking in context. Volume 3. pp. 207-224.

MORIZIO, Claude (2002). La recherche d’information. Paris, ADBS. Nathan Université. Coll. 128, information documentation, n°267. 126 p. ISBN 2-09-191244-1

PEJTERSEN, Annelise, FIDEL Raya (1998). A framework for work centered. Evaluation and design: A case study of IR on the web. Working Paper, MIRA, Grenoble, 74 p.

POLITY, Yolla (2004). Du paradigme orienté-usager au paradigme orienté-acteur. In Communication au GREMI (Groupe de Réflexion sur l'Enseignement des Méthodologies de l'Information), Liste des publications, [en ligne], [consulté le 12 février 2004], publié le 22 mars 2001. 19 transparents. http://www.iut2.upmf-grenoble.fr/RI3/gremi/sld001.htm

SARACEVIC, Tefko (1996). Modeling interaction in information retrieval (IR) : a review and proposal. In HARDIN, S., ed. Proceedings of the 59th Annual Meeting of American Society for Information Science. Baltimore : Medford, N.J., ASIS, 1996. p. 3-9.

SARMÉJEANNE, Vincent (2001). La recherche d’information pour l’enseignement, sous la direction du Professeur Jean-Paul METZGER. Lyon. 294 p. Th. Doct. : Sci. Info.-com. : Lyon 3.

TENOPIR, Carol & KING, W. Donald (2004). Communication Patterns of engineers. IEEE Press, Wiley-Interscience. Hoboken : A John Wiley & sons, Inc. Publication, N.J., 266 p.

WILSON, Tom D. (1999). Models in information behaviour research, Journal of Documentation, 55(3), p.249-269.

WILSON, Tom D. (2000). Recent trend in user studies: action research and qualitative methods. Information Research. [en ligne], [consulté le 12 février 2004], vol. 5, n°3, avril 2000, 16 p. http://informationr.net/ir/5-3/paper76.html

VAN ANDEL Pek (2005). Sérendipité, ou de l'art de faire des trouvailles. La Revue mensuelle, Robotique, vie artificielle, réalité virtuelle. [en ligne], Traduit et adapté du hollandais par Danièle Bourcier. [consulté le 4/04/2005], dossier n° 61. http://www.admiroutes.asso.fr/larevue/2005/61/serendipite.htm

Le pingouin bibliothécaire : les logiciels libres de gestion de bibliothèque

Ludivine Berizzi, Haute Ecole de Gestion, Genève

Carole Zweifel, Haute Ecole de Gestion, Genève

Le pingouin bibliothécaire : Les logiciels libres de gestion de bibliothèque

Introduction

Lors de notre travail de diplôme, réalisé en 2004 à la fin de nos études en Information documentaire, à la Haute Ecole de Gestion de Genève, nous avons eu l’occasion d’explorer le domaine des logiciels libres de gestion de bibliothèque. La recherche puis l’exploration et l’installation d’un logiciel de ce type furent une expérience très enrichissante… mais assez isolée actuellement en Suisse.

Lors de nos recherches préalables, nous avons constaté que les logiciels libres de gestion de bibliothèque étaient particulièrement méconnus des professionnels de notre branche, en Suisse. Il nous a donc paru judicieux de partager notre expérience et notre avis sur la question. Parallèlement, de plus en plus d’articles et de sites Web, comme le site Free Biblio(1), sont consacrés à cette thématique : le logiciel libre est devenu une évidence…pour ceux qui suivent l’actualité de l’informatique documentaire et s’intéressent aux logiciels libres. Pourtant, il deviendra bientôt indispensable que tout bibliothécaire responsable d’un logiciel documentaire sache de quoi on parle.

Cet article se veut un compte-rendu de notre expérience, enrichi par les recherches de Carole Zweifel dans le cadre de ses fonctions actuelles d’assistante à la HEG. Compte tenu des évolutions rapides des logiciels libres, nous ne pouvons pas assurer que le contenu soit encore actuel dans une année… Dans cet article, nous expliquerons en premier lieu en quoi consiste le mouvement des logiciels libres, puis aborderons les avantages et désavantages des logiciels libres de gestion de bibliothèque par rapport à des solutions propriétaires.

Avant de conclure, nous parlerons plus spécifiquement de l’application pratique d’un logiciel libre à la Fondation Chanson et Musiques Actuelles à Nyon (Suisse).

Précisons que par logiciel de gestion de bibliothèques, nous entendons un système intégré de base de données pouvant gérer un catalogue de documents, permettre des recherches, gérer du prêt ou encore proposer un accès spécifique aux lecteurs (OPAC).

Le mouvement des logiciels libres, une idée généreuse

Historique du mouvement

L’histoire du logiciel libre est riche et complexe et le but de cet article n’est pas de s’y attarder. Signalons cependant les grandes lignes :

Le concept de logiciel libre remonte au tout début de l’informatique, lorsque les chercheurs s’échangeaient des codes pour faire avancer plus rapidement leurs recherches et développer des logiciels, ce qui a permis entre autres le développement d’Internet. Ce concept se développe beaucoup dans les milieux universitaires dès les années septante. L’introduction de licences d’exploitation supplante progressivement cette culture d’échanges et impose des restrictions d’usage.

En 1984, Richard M. Stallman, informaticien au MIT et travaillant à l’amélioration du système d’exploitation UNIX (à l’époque, propriété de AT & T), très irrité par la limitation croissante d’usage des logiciels, crée la Free Software Foundation (FSF) et lance son projet de système d’exploitation libre, intitulé GNU (soit GNU is not Unix). Il crée petit à petit de nombreux programmes dont le code source (2) est intégralement accessible. La dernière pierre de l’édifice, le système d’exploitation, qui permet d’être totalement indépendant de tout système propriétaire, manque pourtant. Celui-ci est crée en 1991 par un étudiant, Linus Torvalds, durant ses temps libres. Linus Torvalds souhaitait simplement proposer un système d’exploitation simple dans la lignée de Mimix, version légère d’Unix. Il se trouva que son système d’exploitation était l’élément manquant du projet GNU. Le résultat est bien connu puisqu’il s’appelle Linux (l’appellation correcte étant GNU/Linux), symbolisé par Tux le pingouin. Depuis sa création, Linux est de plus en plus utilisé par des particuliers, des entreprises mais aussi des administrations.

Il est difficile d’évaluer la part de marché de Linux pour les systèmes d’exploitation. En se basant sur l’usage des navigateurs Web, le W3 Schools (3) tient des statistiques mensuelles à ce propos et estime les parts de marchés suivantes (juin 2005) : 89.8 % pour l’environnement Windows, 3,5 % pour Linux et 3 % pour MacOS (les plateformes comptabilisant moins de 0.5% n’étant pas retenues).

Depuis 1994, date de sa création, Red Hat distribue sa version de Linux et celle-ci est actuellement la plus présente sur le marché. Il existe d’autre sociétés de distribution tel Debian, Mandrake ou Knoppix, qui proposent chacune une version différente de Linux, adaptée au public ou à la langue.

Depuis plus de dix ans, des logiciels libres ont été développés dans presque tous les domaines de l’informatique. En exemple, on peut citer Mozilla (Navigateur web) ou encore le serveur Web Apache, les langages Perl, Python, PHP, XML ou encore les produits Open Office (une version libre de Star Office, développé par Sun Microsystem).

Quant aux logiciels de gestion de bibliothèque, il en existait beaucoup, dans les années 80, tel Sibil, que l’on aurait pu considérer comme libres puisqu’ils étaient libres d’usage et de modifications. Ils furent pour la plupart abandonnées ou rachetés par un éditeur qui, ensuite, s’est attribué les droits d’exploitation. Le premier logiciel libre de gestion de bibliothèques en tant que tel, Koha, date de 1999 et a été réalisé par la société Katipo pour la Horowhenua Library Trust, puis “libéré” pour être utilisable par tous. A la même époque, Peter Schlumpf développe seul un autre logiciel libre : Avanti. Depuis, les initiatives n’ont pas manqué mais le développement dans ce domaine est très récent. Nous présenterons les divers logiciels plus loin.

Définition du logiciel libre

Dans le jargon informatique, on a parfois du mal à différencier les notions de freeware (ou gratuiciel), shareware (ou partagiciel) ou « public domain » (logiciel du domaine public). Définissons déjà ces trois termes avant de définir la notion de logiciel libre ou d’Open Source.

Le logiciel freeware est publié gratuitement et chacun peut se le procurer sans frais. La redistribution commerciale est interdite. Le shareware est également distribué gratuitement, mais sous une version simplifiée ou accessible dans un temps limité. Pour obtenir une version complète, l’utilisateur devra l’acheter. Quant au logiciel « public domain », il s’agit d’un logiciel dont les droits ont expiré. L’utilisateur peut sans autre l’obtenir gratuitement, mais le risque est grand que le logiciel soit abandonné au niveau de son code source et qu’il ne soit donc plus développé ou entretenu par son éditeur.

Ces trois types de logiciels se caractérisent par le fait que le code source n’est pas accessible aux utilisateurs.

A ces trois notions se sont ajoutées récemment les termes « logiciel libre » (free software en anglais) et « Open Source ». Le terme « libre » doit, premièrement, être compris dans le sens de « libéré » et non dans le sens de la gratuité. En effet, le code source du logiciel, sa boite noire en somme, est « libéré » et donc accessible à tous et chacun peut donc le modifier. Les logiciels libres sont, par essence, gratuits même s’il existe des « packs » payants (notamment pour les distributions Linux) qui contiennent les CDs d’installation, un guide voir un certain nombre de jours d’assistance.

La Free Software Foundation donne une définition claire des conditions à remplir pour qu'un logiciel soit considéré comme libre. On retiendra principalement les quatre libertés, édictées par Richard Stallman, qui sont offertes aux utilisateurs :

  • La liberté d'exécuter le programme, pour tous les usages (liberté 0).
  • La liberté d'étudier le fonctionnement du programme, et de l'adapter à ses besoins (liberté 1). Pour ceci, l'accès au code source est une condition requise.
  • La liberté de redistribuer des copies, donc d'aider son voisin (liberté 2).
  • La liberté d'améliorer le programme et de publier ses améliorations, pour en faire profiter toute la communauté (liberté 3). Pour ceci l'accès au code source est une condition requise.

Cette définition est contenue dans la licence GNU GPL (General Public Licence), première licence libre, crée par la FSF. Le principe de cette licence est basé sur le concept du « copyleft », c'est-à-dire, en bref, l’utilisation des lois de droit d’auteur dans le but opposé du copyright. Par principe, toute nouvelle version d’un logiciel sous licence GPL doit rester sous cette licence. Il existe d’autres licences du même type, mais souvent plus libérales. On citera entre autre la LGPL (pour Lesser General Public Licence).

Un logiciel libre est donc bien sous licence, comme le serait un logiciel propriétaire, mais cette licence est justement très permissive.

Le terme « Open Source » est apparu en 1998 et n’est pas forcément équivalent, principalement concernant le choix de la licence d’une nouvelle version ou d’une version dérivée. La notion « free software » étant peu claire et la FSF un peu trop rigoriste dans ses prises de position, la société Red Hat et d’autres militants du logiciel libre, réunis au sein de l’Open Source Initiative décident d’utiliser le terme « Open Source », en référence au code source ouvert. Ce terme sera ensuite très vite popularisé et utilisé à toutes les sauces, même par des éditeurs de logiciels propriétaires puisqu’il est possible de commercialiser un logiciel basé sur une partie du code d’un logiciel libre.

Reste que ces deux termes sont semblables dans leur définition. Nous n’utiliserons cependant pas, dans notre article, le terme « Open Source » puisqu’il est plus restrictif et postérieur à la notion de logiciel libre.

Pourquoi un logiciel libre en bibliothèque

Une philosophie commune

Lorsque l’on étudie la philosophie du mouvement des logiciels libres, on est frappé par sa similitude évidente avec la philosophie des bibliothèques.

Prenons un exemple : Eric Anctil (Anctil & Shid Beheshti, 2004) rappelle dans son article les 5 principes à suivre pour les bibliothécaires selon Ranganathan (1931) :

  1. Books are for use;
  2. Every reader his or her book;
  3. Every book its reader;
  4. Save the time of the reader;
  5. The Library is a growing organism.

Nous pouvons premièrement constater une similitude entre ces cinq principes et les quatre libertés du logiciel libre.

Ensuite, le combat pour la liberté de l’information et le libre droit à son accès est un combat commun aux deux communautés et les rapproche inévitablement.

Eric L. Morgan (Morgan, 2004b) résume assez bien cette similarité : « À plusieurs égards, je crois que le développement du logiciel ouvert, tel que le décrit [Eric S.] Raymond, est très similaire aux principes mêmes de la bibliothèque. D’abord et avant tout, par l’idée du partage de l’information. Les deux parties mettent l’accent sur l’accès direct. Les deux parties ont la culture du don et gagnent leur statut par la quantité de ce qu’elles diffusent… Les deux parties espèrent que le partage des informations fait progresser chacun dans le monde»

Nathalie Cornée (Cornée, 2003) en arrive aux mêmes conclusions : il paraît évident que les deux mondes collaborent « puisqu’ils partagent les mêmes objectifs ». « Les logiciels libres représentent des outils de travail logiques et naturelles par leur essence pour les professionnels de l’information. »

Cette constatation est donc plutôt pertinente, mais malheureusement les professionnels de l’information ne s’intéressent pas tous aux domaines de l’informatique libre. Un travail important de sensibilisation serait indispensable pour que ceux-ci se rendent compte du potentiel des logiciels libres et que les deux mondes se rencontrent.

Une solution à l’impasse des logiciels propriétaires

Dans les cours qui nous ont été donnés sur les logiciels documentaires ainsi que dans nos pratiques professionnelles, nous avons retenu plusieurs éléments concernant le marché du logiciel documentaire payant. Le choix commercial est important. Les fonctionnalités du logiciel répondent rarement à 100% aux attentes du client. Nous dépendons de l’éditeur, parfois peu disposé à faire des modifications dans le programme. Le développement d’un logiciel coûte cher et n’est pas toujours rentable. Les sociétés commerciales sont donc assez peu enclines à consacrer du temps et de l’argent pour satisfaire un client quant à des adaptations spécifiques à ce client. Mais si cela est possible, le client paie un surcoût qui peut être assez important. Et si celui-ci a peu de moyens, il devra donc s’adapter au produit et attendre patiemment les nouvelles versions. En fait, les logiciels propriétaires peuvent être comparés à du prêt-à-porter alors que les logiciels libres correspondraient mieux à du sur-mesure.

Mais surtout, le marché n’est pas stable. Entre rachat, abandon ou modifications incessantes de ces logiciels, il est difficile de trouver une solution stable et durable dans laquelle nous puissions avoir totalement confiance. Or, les bibliothèques travaillent sur le long terme et la pérennité des données informatiques, et si possible du système, est absolument essentielle. Le professionnel doit donc réfléchir à long terme et pouvoir migrer facilement ses données lorsqu’il change de logiciel documentaire. Ces préoccupations ne sont pas forcément comprises par des développeurs de logiciels propriétaires, même si l’on relève un plus grand intérêt de leur part quant à l’utilisation de formats standards.

A ces égards, les logiciels libres sont une solution très intéressante, au niveau du coût, de la maintenance et de la pérennité des données et du système.

On a trop tendance à réduire l’intérêt des logiciels libres à leur gratuité. Le logiciel libre est gratuit à l’acquisition, certes, mais l’on verra que le coût global n’est de loin pas nul. Lorsque l’on acquiert un logiciel propriétaire, le prix comprend l’installation, le paramétrage, parfois la formation du personnel et la maintenance, souvent avec un surcoût. Ces services ne sont pas proposés avec l’acquisition du logiciel libre, ou tout du moins pas gratuitement. Il faut donc premièrement prévoir du temps ou de l’argent pour l’installation et le paramétrage du logiciel puis la formation du personnel. Si le responsable est compétent et peut gérer la tâche seul ou avec l’aide d’un informaticien de la maison, il s’en tire à peu de frais. Il peut également consulter la communauté en cas de problèmes techniques. Reste qu’il devra consacrer un temps important pour suivre les évolutions du logiciel, adapter le sien ou participer au développement du logiciel selon ses capacités.

Dans le cas où le personnel est peu compétent et n’a pas la possibilité de demander l’aide d’un informaticien interne, il existe des sociétés de service en logiciel libre (SSLL). Ces sociétés proposent des conseils lors du choix d’un logiciel, l’installation et la configuration du logiciel, la résolution de problèmes techniques, une adaptation de celui-ci aux besoins de l’utilisateur ou éventuellement un ajout de modules. Certains développeurs de logiciels proposent également des services, tel PMB services pour le logiciel PMB. Cette société propose, entre autre, l’installation et la configuration du logiciel, un contrat de maintenance ou des cours de formation.

En résumé, si le responsable du logiciel a de bonnes compétences en informatique, il peut se débrouiller à peu de frais pour gérer celui-ci. Peu de coût financier donc, mais un coût important en temps et en investissement personnel. Par contre, s’il souhaite demander de l’aide à des développeurs externes, le coût financier peut être élevé et donc l’investissement dans ce logiciel moins avantageux que prévu.

Eric L. Morgan (Morgan, 2004a) soutient qu’il s’agit principalement d’un coût en temps de travail et nous avons également pu le constater dans notre expérience.

La communauté des utilisateurs est un gage important dans le succès d’un logiciel libre. Elle est composée principalement d’informaticiens, de développeurs et d’utilisateurs. Plus elle est grande, plus le développement et la pérennité du logiciel sont en principe assurés puisque si les développeurs principaux du logiciel abandonnent le logiciel, les membres de la communauté (et surtout les utilisateurs) auront tout intérêt à reprendre son développement. Cette communauté est souvent organisée autour d’un forum sur le site du logiciel mais également grâce à des listes de discussions. Les utilisateurs feront part de leurs besoins et, s’ils sont pertinents pour une partie de la communauté, elle se mettra au travail. Le résultat sera proposé à toute la communauté. L’utilisateur du logiciel, puisqu’il bénéficie de l’aide de cette communauté, devra par solidarité proposer ses services. S’il n’est pas compétent en informatique, il pourra toujours participer à l’élaboration d’un manuel d’utilisateur ou à la traduction du logiciel dans une autre langue, donner son avis sur certaines fonctionnalités ou signaler quelques dysfonctionnements. Ce système de communauté peut donc être très puissant concernant l’évolution d’un logiciel et les modifications et ajouts au logiciel peuvent être réalisés rapidement. A ce propos, nous conseillons la lecture de l’excellent article « La cathédrale et le bazar » de Eric S. Raymond (Raymond, 1998), qui permet de bien comprendre le fonctionnement et la puissance d’une communauté autour d’un logiciel libre.

On peut reprocher aux logiciels libres qu’ils ne soient pas des solutions sérieuses et durables. Au contraire, la communauté peut être très stimulante et les développeurs être très motivés. De plus, l’usage de langages libres s’appuyant sur des normes reconnues est un gage de stabilité. De même, les logiciels libres sont évolutifs : les diverses versions du logiciel ne sont pas figées et, puisqu’elles utilisent le même langage, respectent les versions antérieures et les migrations sont d’autant plus facilitées. Enfin, le soutien d’entreprises (dans le cas de Redhat et Mandrake, par exemple) permet également d’accroître cette stabilité. Évidemment, ces observations sont récentes et l’on ne peut pas deviser sur les vingt prochaines années…

En définitive, grâce à la licence libre de son logiciel, l’utilisateur, avec l’aide de la communauté, obtient un logiciel flexible et adapté aux besoins du SID, de surcroît à peu de frais et souvent assez rapidement.

Avantages des logiciels libres.

Nous avons relevé plusieurs avantages des logiciels libres liés à leur liberté d’utilisation, à l’indépendance par rapport à une société propriétaire. Signalons ici les avantages techniques et pratiques :

Avantages techniques

  • Le code du logiciel étant ouvert, il est possible, si l’on possède les compétences suffisantes, d’intervenir dessus et donc de faire des modifications rapides en cas d’erreur ou d’amélioration.
  • L’interface Web, particulièrement utilisée par les logiciels libres, demande uniquement l’utilisation d’un navigateur Web et d’un serveur Apache de type EasyPHP (selon notre expérience facilement installé). Elle permet une personnalisation de l’OPAC et facilite également l’usage de l’Unicode. En effet, le navigateur prend en compte la traduction et facilite donc la traduction dans de nombreuses langues. Les logiciels libres peuvent donc facilement proposer des traductions dans de nombreuses langues.
  • Les langages de programmation (MySQL, PHP, Perl, Python,…) sont libres, connus et s’appuient sur des normes reconnues.
  • Les normes et formats de catalogage (MARC, iso 2709,…) sont, pour la plupart des logiciels, respectés.
  • De plus en plus, les logiciels libres gèrent XML, ce qui facilite grandement la migration des données et leur pérennité.
  • Les logiciels libres sont moins sensibles aux virus car les failles peuvent être repérées par les développeurs et corrigées immédiatement.

Avantages pratiques

  • En règle générale, chaque logiciel dispose d’un site web où l’on accède à la copie du logiciel, à des informations techniques et pratiques, à un forum, à des contacts,
  • Une démo du logiciel est souvent disponible sur le site web du logiciel ou sur des sites web associés. L’utilisateur intéressé peut également directement installer le logiciel pour le tester et l’évaluer sur son propre poste.
  • L’acquisition du logiciel est très simple puisqu’il suffit souvent de télédécharger simplement un fichier via Internet.
  • Grâce à la communauté, on peut obtenir de l’aide et de l’assistance gratuitement. La communauté permet un partage des connaissances et des améliorations.
  • Le logiciel est le souci d’une communauté active et permet indirectement la collaboration entre bibliothèques ou centres de documentations parfois très éloignés.
  • La bonne connaissance du logiciel offre un contrôle informatique. Le responsable connaît bien techniquement le logiciel et il développe ses compétences informatiques dans un langage utilisé également ailleurs.
  • On constate souvent un souci d’esthétisme dans la présentation des logiciels. Une présentation graphique agréable et l’ergonomie semblent faire partie des préoccupations des développeurs.
  • Il existe de plus en plus de choix dans les logiciels de gestion de bibliothèque, du plus simple au plus complexe.

Désavantages des logiciels libres

Le choix d’un logiciel libre comporte de nombreux risques et désavantages qu’il est important d’avoir en tête. Signalons cependant que ces désavantages se présentent principalement dans le cas d’une gestion faite par une seule personne. Une gestion en équipe peut considérablement atténuer ces aspects :

Désavantages liés à l’utilisateur

  • Il est important que celui qui souhaite installer puis gérer un logiciel libre de gestion de bibliothèque ait, en plus de ses connaissances en bibliothéconomie, de bonnes connaissances préalables en informatique ou qu’il ait à disposition un informaticien compétent, ceci pour pouvoir gérer la maintenance du logiciel de manière autonome.
  • L’utilisateur doit suivre régulièrement les développement du logiciel via une mailing-list ou en visitant régulièrement le site web ou le forum du logiciel.
  • De même, l’utilisateur devrait également consacrer du temps à la communauté et proposer son aide selon ses compétences.
  • Parfois, lorsque le développement d’un logiciel n’est pas terminé ou qu’il n’existe qu’une version beta, l’acquisition du logiciel peut être payante, ceci pour financer son développement. Ce cas est cependant assez rare.
  • L’investissement en temps pour l’utilisateur est important.

Désavantages liés au logiciel

  • L’installation du logiciel peut être parfois très laborieuse.
  • Actuellement, les logiciels à disposition proposent, pour la plupart, des fonctionnalités assez simples et parfois pas suffisamment performantes. On y trouve presque toujours les modules de catalogage, de circulation et un OPAC. Mais peu de logiciels proposent, par exemple, un module d’acquisition ou de prêt inter.
  • Certains logiciels ne proposent actuellement que des versions beta, c'est-à-dire des versions encore non terminées et instables. Les développeurs se concentrent au début sur la création de nouveaux modules et « oublient » parfois d’améliorer ce qui a déjà été fait. Certains logiciels, les plus anciens, sont assez peu conviviales et difficiles à utiliser même si ceux-ci se veulent souvent simples d’usage. Les derniers arrivants sont nettement plus convaincants à ce propos.
  • Il existe actuellement peu de manuels et de documentation quant à l’utilisation et la gestion des logiciels. C’est assez frappant dans le cas de Koha, logiciel pourtant assez utilisé : Jusqu’à début 2005, on ne trouvait aucune documentation digne de ce nom sur leur site web. Depuis, Koha a développé un site spécifique à ce propos, d’ailleurs assez complet.
  • L’interaction avec les logiciels propriétaires n’est pas encore toujours acquise, de même entre les logiciels libres de gestion de bibliothèque.
  • Le choix des logiciels actuels est très axé « gestion de bibliothèques » et peu « gestion de centres de documentation ».

Survol des logiciels disponibles actuellement

Un logiciel de gestion de bibliothèque propose en règle générale plusieurs modules tels la circulation (prêt), le catalogage, la recherche dans le catalogue, la gestion des acquisitions, le bulletinage des périodiques, des fonctions de gestion administrative, de statistiques ou encore un OPAC (Online Public Access Catalogue).

Après une brève recherche sur Internet, nous avons constaté qu’il existait un certain nombre de logiciels libres de gestion de bibliothèque(4) disponibles. Nous avons approfondi notre recherche dans des périodiques spécialisés (Argus, Archimag, Documentaliste, etc.), mais aussi sur des sites ressources et sur les sites officiels des logiciels documentaires. Après avoir rassemblé un corpus de textes suffisants et comparé les fonctionnalités de base des logiciels, nous en avons présélectionné sept qui méritaient d’être étudiés d’un peu plus près. Il s’agit de Avanti, Koha, Learning Access ILS, GNUTeca, PMB, OpenBiblio, et Emilda.

Nous les présentons brièvement ci-dessous, dans l’ordre du plus ancien au plus récent, avec une critique succincte de chacun. Nous avons ajouté une brève présentation d’Evergreen (anciennement Open ILS), logiciel récent que nous n’avons pas étudié lors de notre travail de diplôme mais qui semble très prometteur.

Signalons que la plupart de ces logiciels ont été développés pour des bibliothèques et que leurs fonctionnalités sont principalement adaptées à ce type d’institution. Cependant, la plupart peuvent être utilisés par des centres de documentation après quelques adaptations. Il manquera cependant les fonctions propres à un logiciel de gestion d’un centre de documentation telle la génération de produits documentaires (revues de presse, newsletters) ou encore la gestion de documents numériques (GED).

Avanti

Avanti est, à la base, l’oeuvre d’une seule personne, Peter Schlumpf (USA) et date de 1998. Le but était de développer un logiciel aussi simple que possible, flexible et ne demandant pas de grandes connaissances en informatique à ses usagers.

La version actuelle, Avanti MicroLSC, dans sa version 1.0 béta 4, propose un OPAC et un module de catalogage (compatible MARC), fonctionnels mais assez rudimentaires. Le catalogage des documents est possible sur 10 champs uniquement, ce qui peut, pour certaines petites bibliothèques, être suffisant. On ne peut pas préciser la nature du support et les périodiques sont donc mélangés aux monographies sans possibilité de les démarquer. Plus ennuyeux, il n’existe pas de champ date ou de zone de collation. La recherche se veut simple et est donc limitée aux champs « titre » et « auteur » et ne peut donc pas gérer une recherche thématique. Sébastien Thébault (Thébault, 2004) a installé ce logiciel, non sans peine et avertit que cette étape est difficile. La circulation sera intégrée dans la version 1.0 définitive, qui doit paraît courant 2005. Le graphisme est très épuré.

L’intérêt principal de ce logiciel est qu’il peut fonctionner sur n’importe quel système d’exploitation. Basé sur la technologie Java (de Sun), Avanti parie sur la stabilité de ce langage. Ce pari peut être discutable puisque le langage Java rend le logiciel assez lent pour les ordinateurs non récents. Sébastien Thébauld (Thébault, 2004) soutient également que la complexité de la technologie Java explique la lenteur des développements puisque peu de développeurs la maîtrisent. Le logiciel utilise son propre système de base de données nommé PicoDB.

En bref, le développement de ce logiciel est peu avancé et fastidieux puisqu’il est l’œuvre d’une personne assistée d’une équipe de sept développeurs, sans l’aide d’une éventuelle communauté. Autre handicap de taille, Avanti n’est, à priori, utilisé par aucune bibliothèque pilote. Le graphisme est sobre mais pas vraiment agréable. En fait, à force de vouloir être aussi simple que possible, Avanti n’est pas assez complet. A notre avis, il pourrait à peine convenir à de petites bibliothèques. Eric Anctil estime qu’il n’est pas encore prêt pour être implanté à son stade actuel de développement (Anctil & Shid Beheshti, 2004).

Koha

Koha prétend être le premier logiciel libre de gestion de bibliothèque. Il a été initialement développé en Nouvelle Zélande par la bibliothèque d’Horowhenua et la société Katipo en 1999. La bibliothèque souhaitait changer de SIGB (5) et a rédigé un cahier des charges en 1998. Aucune réponse ne la satisfaisait : les solutions étaient trop chères et souvent surdimensionnées. La société Katipo a alors développé Koha et a proposé de « libérer » le logiciel.

Concrètement, Koha comprend un catalogue (compatible MARC, multiples grilles, usage de thésaurus et d’autorités-matière), un OPAC (recherche sur une dizaine de champs, compte lecteur, panier de notices), un module pour la gestion de la circulation des documents et des lecteurs, un module d’acquisition simplifié ou complet (gestion du budget, des commandes, des fournisseurs, suggestions possibles de lecteurs via l’OPAC..), une aide en ligne partiellement complète. Koha fonctionne avec un client Web, sur Windows, Linux et MacOS, utilise les langages Perl pour la programmation et MySQL pour la base de données. Il s’est doté d’un protocole d’interrogation Z39.50 dans la version 2.0 et gère les formats UNIMARC, USMARC, MARC21 et le format d’échange iso 2709. Depuis peu, il existe un site regroupant plusieurs documentations concernant l’installation, la migration des données ou la maintenance.

Le type et la présentation des fonctionnalités de Koha l’orientent plutôt vers les bibliothèques académiques. Utilisé dans le monde entier grâce à des versions multilingues, Koha possède une importante communauté de développeurs, traducteurs et correspondants. Il a le potentiel pour devenir un logiciel universel à condition qu’il suscite toujours autant d’intérêt dans le milieu des centres d’information documentaire (Anctil & Shid Beheshti, 2004). En tout cas, selon Eric Anctil (Anctil & Shid Beheshti, 2004), c’est le logiciel libre de gestion de bibliothèque le plus complet actuellement et le plus avancé technologiquement. Koha a d’ailleurs reçu en 2003 le prix du logiciel libre pour la meilleure application pour structure publique aux « Trophés du Libre ». Par contre, il semblerait que son installation pose encore quelques problèmes. Dans notre cas, nous n’avons pas réussi à l’installer et plusieurs informaticiens de la HEG de Genève ont également essayé, sans succès. La principale difficulté s’est présentée avant l’installation de Koha proprement dite. Il faut en effet installer plusieurs briques logiciels (notamment des composants Perl) et c’est à ce niveau que nous avons été bloqués.

LearningAccess ILS

Le Learning Access Institut de Seattle propose un logiciel libre appelé LearnigAccess ILS. Anciennement nommé OpenBook ou Koha West, LearningAcesse ILS a été développé dès 2000 par J.G. Bell en se basant sur le code de Koha. En ce qui concerne les fonctionnalités, on y trouve trois modules : OPAC, catalogue (avec usage de MARC21) et gestion de la circulation. La gestion des acquisitions est encore en développement. Le catalogage comprend aussi le protocole Z39.50. Tous les modules fonctionnent avec une interface Web et permettent un usage multilingue. Techniquement, LearningAccess ILS fonctionne sur Linux ou Windows et utilise une base de données MySQL, le langage de programmation PHP et l’Unicode.

Le site Web donne accès à plusieurs mailing-lists pour les utilisateurs et permet de visionner un exemple d’application du logiciel au travers d’une base de données avec OPAC et 25'000 notices. Nous avons donc pu voir concrètement comment le logiciel se présente.

Côté négatif, la version n’est pas encore accessible sur le site Web mais on peut se procurer des versions béta sur le site personnel du créateur. Le Learning Access Institute attend d’avoir une version complète et stable avant de la distribuer librement.

Comme Koha, LearningAccess ILS a le potentiel de devenir universel. Via une recherche Internet, on trouve des OPAC de bibliothèques visiblement inspirés de ce logiciel, signe qu’il est déjà utilisé par des institutions. Le projet est supporté par une bonne équipe de développeurs et montre une grande ambition.

GNUTeca

Le projet GNUTeca a démarré en 2001 grâce à trois développeurs brésiliens. Il connaît un grand succès au Brésil dans les bibliothèques publiques, universitaires et même gouvernementales. Le nombre de programmeurs a augmenté et la version actuelle propose un OPAC, un catalogue compatible avec MARC21, une gestion de la circulation, le bulletinage et le prêt inter-bibliothèques. GNUTeca tourne sur Linux, utilise les langages de programmation PHP, PostgreSQL et utilise un langage de base de données libre portugais : Miolo.

Les fonctionnalités de ce logiciel nous semblent très intéressantes et le fait qu’il ait un grand succès populaire au Brésil nous semble de bon augure. Malheureusement, il est ennuyeux que ce logiciel ne fonctionne que sur Linux et qu’il ne soit actuellement pas encore traduit. Lorsqu’il existera une version traduite, ce logiciel pourra être vraiment intéressant dans nos contrées.

PMB

PMB, initié par le bibliothécaire français François Lemarchand et actuellement développé, animé et maintenu par la société PMB Services, date de 2002.

Il propose dans sa version 2.0 un OPAC, une gestion de la circulation des documents et des lecteurs, un catalogue (compatible MARC) avec gestion des autorités, un catalogage de ressources électroniques, le bulletinage des périodiques, un moteur de recherches multicritères et booléen. On peut également avoir accès à une documentation assez complète en ligne.

Tout comme Koha, PMB est basé sur des technologies issues du Web: serveur Apache, langage de programmation PHP et MySQL pour la gestion de base de donnée. Enfin, il utilise le protocole Z39.50 et gère le format UNIMARC ainsi que le format d’échange iso 2709. Le logiciel, déjà disponible en plusieurs langues (français, anglais, italien, espagnol, etc.), fonctionne très bien sur Windows, Linux et MacOS, en monoposte, Intranet ou Internet. Le logiciel est régulièrement mis à jour et la dernière version date de janvier 2005.

L’interface est très simple et conviviale pour les usagers comme pour les professionnels. PMB vise des SID de petite et moyenne taille ainsi que les centres de documentation spécialisés mais équipe déjà des bibliothèques de 180'000 ouvrages et un centre de documentation de 300'000 documents. Il comprend une grande communauté d’utilisateurs et propose des formations à domicile. Le produit est en plus en français. Il est l’un des SIGB les plus complets actuellement et est promis à un bel avenir.

OpenBiblio

Nous avons trouvé peu de références dans la littérature professionnelle à propos du logiciel OpenBiblio. Le site Web du logiciel donne quelques informations. Logiciel assez récent (2002), OpenBiblio propose les fonctionnalités classiques : OPAC, gestion de la circulation, du catalogue et des lecteurs. On y trouve également un module de gestion des employés. Le logiciel fonctionne avec une base de donnée MySQL, le langage de programmation PHP, sur Linux, Unix et Windows et gère l’USMARC. Ce logiciel est assez intuitif, agréable à l’œil, bien documenté (présence d’un forum d’utilisateurs) et facilement installable. Plusieurs traductions sont en cours, notamment en espagnol, en italien, en français ou encore en hébreu ou en indonésien !

Il n’existe encore aucune version définitive, la version actuelle étant la version béta 0.5.0. Le logiciel est pour l’instant principalement utilisé aux États-unis. Le forum indique une certaine activité des développeurs et une ambition internationale.

Emilda

Emilda est un logiciel libre de gestion de bibliothèque finlandais assez récent (la version 1.0 date de 2003).

La version 1.2.2 propose un OPAC, un module de catalogage et de circulation, une aide en ligne, une possibilité de faire des recherches simples et avancées et un paramétrage presque total du logiciel, et ceci très facilement. Une fonctionnalité originale : via l’OPAC, il est possible de mettre un commentaire sur un livre et lui attribuer une appréciation. Le site propose une documentation complète pour l’installation et l’administration du logiciel. Emilda gère entièrement le langage XML, est compatible avec MARC et intègre la recherche via Z39.50.

Emilda était initialement programmé en langage Perl. Il a ensuite été traduit en langage PHP et fonctionne avec une base de donnée MySQL. Ce logiciel fonctionne principalement sur Linux mais les développeurs signalent sur le site que l’installation sur d’autres systèmes serait en principe possible.

Les concepteurs d’Emilda ont particulièrement soigné l’apparence du logiciel et nous l’avons trouvé très agréable. La navigation est simple et aisée. On est vite sous le charme même si le logiciel propose encore des fonctionnalités de base. Emilda fonctionne actuellement dans trois écoles à Espoo, en Finlande.

Les développeurs sont conscients des imperfections de leur logiciel et incitent les visiteurs qui testent leur démo en ligne, à faire des commentaires. Mais le résultat actuel est assez convaincant et nous espérons que ce logiciel évoluera vite.

Evergreen

Evergreen, anciennement nommé Open ILS, est un projet développé par la bibliothèque d’État de Géorgie (USA) pour le Georgia Library PINES Program, un consortium de 251 bibliothèques publiques de Géorgie. Pour des raisons d’inadéquation des produits commerciaux aux attentes de ce consortium, il a été décidé de créer un SIGB libre sous licence GPL qui permette de gérer ce consortium ainsi que les bibliothèques qui y appartiennent selon les besoins précis du système PINES.

Le projet a débuté fin 2004 et le logiciel est encore en développement. Le site web donne encore peu d’informations mais le module de catalogage peut déjà être étudiés via une démo et l’on peut déjà observer le résultat via l’OPAC du réseau PINES.

Techniquement, le logiciel fonctionne avec une base de donnée PostgreSQL, est programmé en C++ et en Perl et fonctionne avec un serveur Apache. Le type de système d’exploitation sur lequel fonctionne ce logiciel n’est pas précisé.

Nicolas Morin, dans son weblog BiblioAcid, a suivi de très près les développements de ce logiciel et semble très impressionné par les premiers résultats. Ce logiciel semble très prometteur puisqu’il s’agira d’un gros système, prévu de fonctionner pour un vaste réseau de bibliothèques.

L’installation de PMB à la FCMA : notre expérience

Le sujet de notre travail de diplôme nous a été proposé par la Fondation Chanson et Musiques Actuelles (Nyon), une petite structure chargée de la promotion des groupes de musique actuelle de Suisse romande et d’une aide sous forme de consulting et de conseils pour leur carrière. Le public est assez restreint et seul le mercredi après-midi leur est, en principe, dévolu pour prendre rendez-vous. Cette association, fondée en 1997, a amassé et acquis une quantité de documentation de tous supports : monographies (environ 250 vol.), périodiques (60 titres dont 6 abonnements), CDs (environ 450), documents audiovisuels, dossiers de presse, etc…dans laquelle le personnel avait parfois bien de la peine à se retrouver. La FCMA ne disposait, en outre, d’aucune communication en externe de son fonds. La nécessité d’implanter un système de gestion global des documents s’est vite imposée à nous pour gérer de façon pratique et homogène toute cette information.

Nous étions cependant soumis à diverses contraintes : la FCMA disposait d’un budget restreint dévolu à la documentation. De ce fait, il nous fallait trouver une solution au prix le plus raisonnable possible. En outre, le système que nous allions mettre en place serait géré par des non professionnels en information et documentation. Il fallait, de plus, prendre en compte le fait que le temps à disposition du personnel pour la gestion de la documentation était limité. La solution que nous devions trouver se devait d’être simple d’utilisation et maniable.
Concernant la maintenance, un informaticien pouvait intervenir à la demande.

Le choix d’un logiciel libre

Lors de nos recherches préalables, nous sommes arrivés à la conclusion que les logiciels « propriétaires » de bibliothèque étaient, dans notre cas, trop onéreux. De plus, les logiciels commerciaux de bibliothèque possèdent en général un certain nombre de modules utiles à la gestion de toutes les tâches courantes en bibliothèque (acquisition, bulletinage des périodiques, prêts, comptabilité, etc.). Or, la FCMA ne prêtant pas de documents et ne gérant pas un fonds important, un grand nombre de fonctionnalités auraient été inutiles. Il était donc superflu d’investir beaucoup d’argent dans un logiciel où peu de fonctionnalités seraient exploitées. Comme nous l’avons évoqué précédemment, les logiciels libres proposent en général des fonctionnalités simplifiées ou ne possèdent pas encore tous les modules des logiciels propriétaires. Vu que les besoins de la FCMA étaient limités, les fonctionnalités présentes étaient de toute façon suffisantes.

Pour ces deux raisons, nous avons axé nos recherches sur les logiciels libres, même si, avouons-le, nous étions assez inexpérimentés dans le domaine.

En Suisse, il nous semblait que les logiciels libres de gestion de bibliothèques étaient encore peu connus et très peu utilisés. Un petit sondage lancé en février 2005 sur Swisslib (6) a montré qu’effectivement, il existe très peu d’initiatives dans ce domaine en Suisse, en tout cas selon les quelques réponses que nous avons obtenues. Un projet romand de logiciel libre de gestion de petite bibliothèque, BiblioApp, nous a été signalé par la Bibliothèque Intercommunale et Scolaire de Mézières qui l’utilise avec satisfaction. Celui-ci sera prochainement renommé Papyrus. Par contre, lors de notre mandat, il n’existait pas d’application des logiciels que nous avons étudiés. Nous avons appris dernièrement que le Centre de documentation et d’information de l’école Moser de Genève utilisait PMB mais aucune visite n’a encore été faite sur place.

Fin 2004, une autre équipe de travail de diplôme a proposé à son mandant le choix de l’installation de Koha ou de Bibliomaker dans une nouvelle bibliothèque mais aucune installation n’a été réalisée à ce jour. Le défi de choisir un logiciel libre dans un centre de documentation était donc, à notre connaissance, une première dans notre région.

Un travail de diplôme est une sorte d’expérimentation où il faut parfois faire preuve d’un peu d’ingéniosité, faire appel au système D et explorer des domaines à la pointe. Nous avons donc trouvé l’occasion excellente pour nous jeter dans l’aventure.

Évaluation et choix définitif du logiciel documentaire

Après un premier tri dans les solutions libres, il s’agissait de trouver la solution la plus appropriée à notre situation. Après un repérage de sept logiciels potentiellement intéressants, nous en avons sélectionné trois (Koha, PMB, Learning Access ILS). Ceux-ci seraient ensuite décortiqués en profondeur, testés et comparés.

Premièrement, il a fallu se procurer une copie du logiciel ou une « démo ». A ce niveau, nous avons déjà dû abandonner Learning Access ILS puisque apparemment, il n’existait aucune copie accessible et plusieurs e-mails de demande au concepteur sont restés sans réponse.

Koha, pour sa part, a posé de sérieux problèmes d’installation. En effet, aucun informaticien que nous connaissions n’a pu réaliser l’installation complète. Nous avons donc fait notre évaluation sur une version « démo », certainement un peu limitée, disponible sur le site Internet de Koha. Le logiciel PMB, quant à lui, a été très facile à télécharger et à installer pour son évaluation.

Suite à la rédaction d’un cahier des charges, il ne restait plus qu’à nous plonger dans l’exploration de Koha et de PMB.

Le choix s’est porté sur le logiciel PMB pour les raisons suivantes :

  • L’accès administrateur du logiciel est très facile à utiliser et très intuitif. Il nous a semblé que pour des utilisateurs non professionnels, la facilité d’emploi était indispensable. Le logiciel s’installe très facilement. Les mises à jour sont également assez faciles à réaliser et sont téléchargeables directement sur le site de la communauté de PMB. De plus, il n’y pas besoin de demander de l’aide à un informaticien pour effectuer cette tâche, souvent périlleuse.
  • Le logiciel est très convivial. Sa présentation graphique est plaisante et claire et la navigation est aisée et intuitive.
  • A l’exception d’un module d’acquisition inexistant (il sera inclus dans le courant 2005), les fonctionnalités répondaient en grande partie à nos exigences et souvent de manière satisfaisante.
  • Le logiciel gère plusieurs listes d’autorité dont un thésaurus (entre autre celui de l’UNESCO) et une classification. L’intervention sur les autorités est facile et rapide. De plus, l’usager peut appeler les listes d’autorité depuis le module de catalogage, ce qui rend la tâche plus rapide.
  • Le paramétrage est assez facile. Depuis le module administration, l’administrateur peut aisément modifier plusieurs paramètres propres au centre de documentation. Par contre, la modification des fonctionnements spécifiques du logiciel doit se faire via le code et demande donc une connaissance du langage PHP et de MySQL.
  • Il existe plusieurs manuels de PMB, sur le site Web et intégrés au logiciel, ainsi qu’une version papier, concernant l’installation, le paramétrage et l’utilisation. Ceux-ci sont bien conçus.

En revanche, le logiciel montre quelques faiblesses au niveau de l’OPAC. Celui-ci est assez performant concernant la recherche mais graphiquement, il est assez peu agréable. Il n’est pas possible de déplacer les éléments de la page. Signalons cependant que l’usage de feuilles de styles CSS permet d’adapter l’apparence graphique. Ce détail nous a semblé pourtant de faible importance puisque nous pensions transposer la base de données sur le site Web de la FCMA, sans utiliser l’OPAC sous la forme proposée.

Installation, paramétrage et prise en main du logiciel

L’installation du logiciel PMB sur un poste de la FCMA fut facile et nous avons pu le faire par nos propres moyens. La mise en réseau sur les autres postes informatiques fut, par contre, plus laborieuse. Pour réaliser ce travail de mise en réseau, nous avons contacté l’informaticien responsable du parc informatique de la FCMA et au bout d’une bonne heure, le logiciel était opérationnel sur toutes les machines.

Nous avons réalisé nous-même, sans aide externe, les paramétrages propres à la FCMA, tels la mention de propriété des documents, le type de documents et leur restriction de prêt, l’entrée des mots-clés déjà choisis, l’entrée de la classification que nous avions créé ou encore les paramètres graphiques de l’OPAC. L’informaticien a lui-même paramétré le lieu de sauvegarde puisque celui-ci était lié au réseau.

Catalogage

Nous avons catalogué nous-même une grande partie du fonds puisqu’il n’y avait aucune description existante ni de moyen de récupérer des notices. Cette étape s’est effectuée très facilement. Certaines fonctionnalités de PMB se sont avérées vraiment agréables tels l’appel automatique de listes d’autorités dans les notices catalographiques ou l’accès à la liste des dernières notices cataloguées. Il est possible de cataloguer plusieurs exemplaires d’un document, de récupérer des notices via un module Z39.50 ou par l’import de notices au format UNIMARC. Le logiciel peut gérer l’usage des codes barres ou générer automatiquement un nouveau numéro d’exemplaire.

Notre avis sur le logiciel PMB

Lors de notre travail de diplôme, nous avons suffisamment travaillé avec la base de donnée PMB pour nous faire un avis objectif sur le logiciel. Les divers modules sont bien pensés et s’utilisent de façon vraiment intuitive, ce qui permet une prise en main rapide du logiciel. En effet, nous n’avons pas eu besoin de nous baser sur la documentation existante du logiciel pour en acquérir les fonctionnalités de base. Le logiciel fonctionne très bien et son temps de réponse est vraiment très acceptable. De plus, un travail simultané en réseau n’a posé aucun problème.

Nous avons remarqué cependant quelques incohérences, notamment, dans la grille de catalogage. La zone que nous appellerions communément indexation, c’est-à-dire la possibilité de mettre des mots-clés à l’ouvrage, est nommée « Catégories » et pour créer une véritable confusion, la zone que nous appellerions classification est intitulée « Indexation »…

Ce problème de dénomination n’est cependant pas bien grave et il suffit d’en être conscient pour passer outre. Par contre, plus ennuyeux, la grille de catalogage des périodiques ne possède pas de champ « périodicité » ni « date ». Nous avons donc mis ces mentions dans les notes, faute de mieux. Ces lacunes devraient disparaître avec l’ajout prochain d’un module de gestion des abonnements. Enfin, dans l’OPAC, les noms de champs sont axés « catalogage de monographie ». On retrouve donc la notion « nombre de pages » devant la durée d’un CD

Ces petites incohérences ne posent aucun problème pour la gestion de documents dans le sein d’une petite institution néanmoins, dans le cas d’une institution de grande importance, il serait nécessaire de faire appel aux développeurs, à la communauté, voir à un professionnel pour régler ce genre de petits désagrégements et avoir au final des notices au format standard pour chaque type de documents.

Suite à la dernière mise à jour du logiciel, nous avons eu un problème sérieux dans la gestion des mots-clés. En effet, un certain nombre de ceux-ci n’apparaissaient plus dans la liste d’autorité ni dans la liste disponible via le module de catalogage. Ce fut donc une « bonne » occasion de tester la communauté. Nous avons expliqué en détail notre problème, via la mailing-list, et avons demander une aide. La réponse se fait toujours attendre et nous supposons que nos mails ont été perdus dans la masse. Nous avons donc, heureusement, résolu le problème par nos propres moyens et avons d’ailleurs obtenu une réponse à notre problème récemment, via un problème semblable présenté à la communauté. Étant inscrite depuis quelques mois sur cette mailing-list, Carole Zweifel a pu constater que la plupart des problèmes obtiennent une réponse et que la communauté est très active et efficace.

Bilan de l’expérience

Le bilan de cette expérience a été très positif pour nous. Le logiciel PMB est vraiment performant et a répondu à un grand nombre de nos attentes de départ. Depuis notre départ et suite à une petite formation dispensée par nos soins, le personnel de la FCMA s’est bien adapté à cet outil, qui est devenu un « compagnon de travail » idéal dans le traitement de l’information et de la recherche de documents. Avec notre aide, ils ont pu installer la nouvelle version du logiciel. Malgré quelques problèmes, auxquels nous avons pu pallier assez facilement, nous pouvons garantir l’efficacité du logiciel à moyen terme dans leurs locaux.

Le logiciel est toujours utilisé et le fonds a été presque entièrement catalogué par les employés et par Ludivine Berizzi lors d’un mandat supplémentaire de quinze jours.

Le libre, la solution d’avenir ?

Une alternative viable

Puisque le domaine des logiciels de gestion de bibliothèque est assez récent, il est difficile de se faire une idée claire de son avenir. A-t-on affaire à un effet de mode ? On aurait pu le craindre mais, à ce stade, on assiste plutôt à l’émergence d’un nouveau marché. Les logiciels libres sont en train de s’implanter petit à petit dans le paysage informatique et les logiciels libres de gestion de bibliothèques suivent le mouvement. Il est difficile de chiffrer le nombre d’installations de ce type de logiciels. Si, en Suisse, les SIGB libres semblent très marginaux, en France, PMB par exemple est installé dans une centaine d’institutions. Koha compte plus de soixante installations dans le monde entier.

Le fait que la philosophie des logiciels libres se rapproche beaucoup de celle des bibliothèques ne peut que les réunir assurément. Nicolas Morin (Morin, 2004) estime d’ailleurs que le combat logiciel libre / logiciels propriétaires, dans son principe, est déjà gagné d’avance. Il se demande cependant si les logiciels libres peuvent s’imposer pour une application métier comme un système intégré de gestion de bibliothèque.

Suite à notre expérience, nous pensons que les logiciels libres peuvent actuellement proposer une alternative vraiment intéressante aux logiciels propriétaires. On remarque en tout cas que les initiatives sont de plus en plus nombreuses et que les bibliothécaires / documentalistes ont de plus en plus de choix en ce qui concerne les logiciels de gestion de bibliothèque. C’est une bonne chose mais faut-il encore que le logiciel soit viable, sérieux et semble stable.

Ces logiciels suivent très souvent les nouvelles technologies tout en maintenant une compatibilité avec les anciennes versions, ce qui permet de faciliter les migrations de données. Ils sont souvent assez esthétiques, en tout cas pour les plus récents. Leur interface est soignée et souvent conviviale. Ils utilisent pour la plupart des plates-formes Web et des langages libres de programmation (PHP, Perl,…).

Par contre, plusieurs logiciels ne sont pas terminés ou proposent des versions bêta. La plupart offre les fonctionnalités de base mais les fonctions plus évoluées, tel un module d’acquisition, de gestion financière, le prêt-inter ou la recherche booléenne, sont plus rares. Enfin, un certain nombre de logiciels ne sont pas encore utilisés réellement dans les bibliothèques, ceci pour des raisons de version inachevée ou peut-être de mauvaise adéquation aux besoins.

Bref, il est indispensable de trier et de tester sérieusement les logiciels les plus avancés, puis estimer si la communauté des utilisateurs est assez importante pour assurer une certaine pérennité du logiciel. En fait, nous n’avons guère trouvé plus de sept logiciels qui nous semblaient convenables et à notre avis seuls PMB, Koha, GNUTeca et éventuellement LearningAccess ILS et Evergreen peuvent actuellement prétendre à un avenir assuré. Ces logiciels conviennent très bien à des bibliothèques et centres de documentation de petite et moyenne importance (et à un grand réseau dans le cas d’Evergreen) et on ne devrait pas les ignorer lors du choix d’un logiciel de gestion de bibliothèque.

Une décision politique

Par contre, dans le cas de grandes bibliothèques, pour être concurrentiels par rapport aux logiciels propriétaires, les fonctionnalités devraient à l’avenir s’étoffer et ainsi obtenir plus de crédibilité. Les développeurs sont souvent très motivés et nous pensons que les logiciels libres se développeront vite et pourront dans un avenir proche, être compétitifs par rapport aux logiciels propriétaires.

Le problème d’une installation en réseau se pose également sérieusement. Que faire en cas de réseaux de bibliothèques ? Peut-on imposer un logiciel libre à toute une communauté de bibliothèques ? A notre avis, il s’agit avant tout d’une question politique. Koha semble, par exemple, en bonne liste pour s’implanter dans de grandes bibliothèques. Ce logiciel est d’ailleurs installé déjà dans des établissements universitaires français (École Nationale Supérieure des Mines de Paris, École des Mines de Nantes, École Supérieure d'Ingénieurs en Électronique et Électrotechnique,…). Quant à Evergreen, il devrait permettre de gérer en réseau plus de 250 bibliothèques de petite à grande importance.

Dans des pays aux moyens plus limités, cette question se pose moins et les logiciels libres constituent, en général, une alternative économique idéale, un moyen de se libérer de l’hégémonie des produits occidentaux, d’obtenir une « indépendance technologique » et de réduire la fracture numérique. L’ouvrage de Perline et Thierry Noisette (Perline & Noisette, 2004) explique très bien les enjeux sociopolitiques et économiques des logiciels libres dans les pays non occidentaux et du Tiers-Monde. Nous ne nous y attarderons pas mais nous pensons que la crédibilité des logiciels libres viendra peut-être de ces pays.

Prenons l’exemple du Brésil. Ce pays est l’un des tous premiers à avoir légiféré en faveur des logiciels libres. Une loi fédérale est actuellement en discussion au parlement pour ne permettre l’usage de logiciels propriétaires par l’administration qu’en cas d’absence de logiciel libre correspondant au cahier des charges (Perline & Noisette, 2004). L’environnement politique brésilien est donc très favorable et ce pays devient le paradis du pingouin Linux et des logiciels libres (Dibbell, 2004). Cela explique que GNUTeca soit très bien implanté au Brésil, autant dans des bibliothèques publiques, universitaires que gouvernementales.

Un risque calculé

L’implantation d’un logiciel libre de gestion de bibliothèque aux dépends d’un logiciel propriétaire est actuellement encore rare. Il s’agit donc d’un pari risqué mais selon Nicolas Morin (Morin, 2004), c’est un risque calculé. Nous pouvons le confirmer, suite à notre expérience. Nous avons, en tout cas, confiance envers le logiciel PMB et sa communauté.

Il est dommage que pour notre travail de diplôme et pour cet article, nous n’ayons pas eu le temps d’installer et tester tous les logiciels. Ce travail reste encore à faire. Nous pourrions également imaginer de réaliser une grille d’évaluation adaptée aux logiciels libres de gestion de bibliothèque.

En attendant un test plus complet, nous incitons déjà tous les professionnels à s’intéresser aux solutions libres et à les tester lors d’un choix de logiciel. Nous pourrions presque assurer que « l’essayer, c’est l’adopter » !

Notes

(1) Toutes les références des sites web se trouvent en fin d’article.
(2) Le code source est une représentation humainement compréhensible des instructions qu’exécute l’ordinateur, c’est, en quelque sorte, le noyau du logiciel.
(3) voir le site web de W3schools : http://www.w3schools.com/browsers/browsers_stats.asp (visité le 16 juin 2005)
(4) Nous n’avons pas investigué dans les logiciels de gestion de bibliothèques numériques puisqu’ils n’auraient pas répondu entièrement aux besoins de la FCMA et que celle-ci ne possède actuellement pas suffisamment de documents numériques.
(5) SIGB : Système Intégré de Gestion de Bibliothèque
(6) Liste de discussion suisse des spécialistes en information et documentation

Bibliographie

Sélection de sites web

Articles

ANCTIL, Eric et SHID BEHESHTI, Ph. D (2004). Open source integrated library systems : an overview. anctil.org [en ligne], [consulté le 16 juin 2005].

BREEDING, Marshall (2002). An Update on open source ILS. Information today, vol. 19, no. 9

CORNÉE, Nathalie (2003). Logiciel libre en bibliothèque. 116 p. Mémoire, Information et documentation d’entreprise, Bordeaux 3.

DIBBELL, Julian (2004). We pledge allegiance to the penguin. Wired, novembre 2004, p. 191-197

FERCHAUD, Bernadette (2004). Les logiciels libres, solutions pour la gestion de l’information ? Documentaliste – Sciences de l’information, vol. 41, no. 3, p. 196-199

LOINTIER, Cécile (2001). Les logiciels documentaires gratuits. Argus, vol. 30, no. 3, p. 7-9.

MORGAN, Eric Lease (2004a). Logiciels libres et bibliothèques. Biblioacid, vol. 1, no. 2-3, p. 1-8.

MORGAN, Eric Lease (2004b). Open Source Software in Libraries : a workshop. Infomotions, Inc [en ligne], [consulté le 16 juin 2005].

MORIN, Nicolas (2003). Bibliothèques et logiciels libres. Nicolas Morin – Site pro [En ligne], [consulté le 16 juin 2005].

MORIN, Nicolas (2004). Pour un SIGB libre. Biblioacid, vol. 1, no. 2-3, p. 8-14.

PERLINE, NOISETTE, Thierry (2004). La bataille du logiciel libre : dix clés pour comprendre. Paris : La Découverte. Sur le vif. ISBN 2-7071-4384-7

« Intelligence économique et réseaux » Compte-rendu de la 2ème journée franco-suisse en intelligence économique et veille stratégique

Jacqueline Deschamps, Haute Ecole de Gestion, Genève

François Courvoisier

Françoise Simonot

« Intelligence économique et réseaux »
Compte-rendu de la 2ème journée franco-suisse en intelligence économique et veille stratégique

Bref historique de la manifestation

En Suisse, l’intelligence économique et la veille stratégique sont des domaines d’enseignement émergents. Rattachés généralement aux sciences de l’information et de la communication, ces domaines sont de nature interdisciplinaire et font autant appel aux concepts de la science de l’information qu’à la gestion d’entreprise et à la communication. Dans les organisations comme les entreprises et les administrations, l’intelligence économique et la veille stratégique sont discrètes pour ne pas dire « secrètes ». Par rapport à nos voisines françaises, les PME helvétiques commencent seulement à y être sensibilisées et à intégrer dans leur stratégie managériale une approche plus systématique et intégrée de la récolte et de la gestion de l’information.

En mars 2003, les Hautes écoles de gestion de Genève et de Neuchâtel, avec les professeurs Jacqueline Deschamps et François Courvoisier, en collaboration avec Alain Vaucher, de Centredoc à Neuchâtel, ont ouvert une nouvelle filière d’études postgrades HES en intelligence économique et veille stratégique, la première en Suisse romande. Rapidement, des contacts ont été établis avec Françoise Simonot, professeur responsable de la Licence veille à l’Institut universitaire de technologie de l’Université de Franche-Comté à Besançon. Par ailleurs, le docteur Pierre Achard, intervenant dans la Licence veille à Besançon est venu se joindre à notre collège de professeurs.

Il s’est rapidement avéré que les trois Hautes écoles ci-dessus avaient bien des points d’intérêts communs, des réflexions à partager tant sur le plan des thématiques que de la pédagogie, et c’est ainsi qu’a germé l’idée d’une rencontre franco-suisse. Notre intention était de montrer de manière concrète les défis, possibilités et attentes de l’intelligence économique et de la veille, grâce à des intervenants du métier, praticiens comme enseignants et chercheurs. La première journée franco-suisse a eu lieu le 17 juin 2004 à la Haute école de gestion Arc de Neuchâtel sur le thème de « Comment anticiper, comment surveiller la concurrence ». Une soixantaine de participants suisses et français, responsables en entreprises, indépendants et étudiants ont participé à cette journée avec enthousiasme, nous confortant dans l’idée que l’intelligence économique et la veille sont des thèmes d’actualité.

La 2ème journée franco-suisse « Intelligence économique et réseaux »

Forts de cette première rencontre, nous avons décidé de reconduire la formule et c’est ainsi que les mêmes partenaires se sont retrouvés pour organiser la 2ème journée franco-suisse en intelligence économique et veille stratégique sur le thème « Intelligence économique et réseaux : comment collaborer en réseau dans l’entreprise et hors de l’entreprise ». Une nouvelle fois, quelques soixante participants se sont donc retrouvés à Neuchâtel jeudi 16 juin 2005 pour suivre deux conférences le matin, des cas d’entreprises et une table ronde l’après-midi.

Sous la houlette de Stéphane Benoît-Godet, rédacteur en chef adjoint du magazine économique Bilan, c’est Philippe Clerc qui ouvre les travaux. Directeur de l’intelligence économique auprès de l’Assemblée des Chambres françaises de commerce et d’industrie, Philippe Clerc fait un exposé sur l’intelligence économique et les réseaux institutionnels, en se basant sur sa longue expérience de l’intelligence économique et ses travaux qui l’ont amené à faire des études comparatives entre la France, la Grande-Bretagne, le Québec ou encore l’Indonésie. Par réseaux institutionnels, il faut entendre les institutions qui participent aux réseaux, c’est le point de vue de l’entreprise sous l’angle de l’entreprise étendue, posture déclarative sur l’efficacité issue de la collaboration en réseau. Nous sommes dans l’ère des réseaux, c’est un thème d’actualité, plus encore lorsqu’il s’agit d’intelligence économique.

La réalité des dispositifs nationaux ou locaux d’innovation est constituée et se développe dans un entrelacs de réseaux formels et informels. Philippe Clerc distingue les réseaux à liens forts produisant des signaux forts partagés sur le métier, les cultures et les rites (souvent des sources personnelles informelles) et les réseaux à liens faibles produisant des signaux faibles (souvent issus de la documentation spécialisée ou de l’administration). Une étude canadienne remet d’ailleurs en cause la croyance selon laquelle il y aurait prédominance des réseaux à liens forts et signaux forts et démontre la valeur ajoutée qu’apportent les réseaux à liens faibles.

Mais Philippe Clerc remarque que l’Etat français structure le corps social depuis le 17ème siècle avec l’obsession de la coordination qui en arrive à devenir une fin en soi : il faut passer d’une culture de silos à une culture de réseaux. Dans la seconde partie de son exposé, Philippe Clerc illustre ses propos par des exemples divers. Le Royaume Uni, dans son modèle d’intelligence économique d’Etat est très présent sur les dispositifs de réseaux d’excellence à composante institutionnelle. C’est un ensemble de réseaux qui possède une base de données avec une banque de cas de bonnes pratiques concurrentielles et de compétitivité. Avec l’exemple de la coopération franco-indonésienne, notre conférencier montre comment des stratégies d’influence basées sur l’exportation du savoir-faire de veille et d’intelligence économique peut servir de levier au développement des exportations. La diaspora des étudiants indonésiens venus étudier en France joue un rôle essentiel en appliquant les méthodes et les outils étudiés au cours de leurs études au contexte local. Avec l’exemple québécois, nous avons un cas de réseau gouvernemental de veille intégrée sur les politiques publiques de par le monde. Ainsi, les acteurs peuvent identifier, en un laps de temps assez court, les changements pour informer les décideurs. La motivation est aussi de proposer une vision commune entre les ministères et de positionner la stratégie de chaque réseau institutionnel. C’est grâce à quelque cinq cents veilleurs-coodinateurs travaillant sur des cibles sectorielles et des cibles de réseau, que l’on voit une réelle volonté de coopération.

Le second conférencier est Christian Marcon, maître de conférences à l’Institut de la communication et des nouvelles technologies de l’Université de Poitiers, sur le thème de l’intelligence économique et les réseaux relationnels. Ce thème est étudié depuis plusieurs années par Christian Marcon et son collègue Nicolas Moinet, qui ont récemment publié un ouvrage qui fait autorité en la matière[1]. Les travaux sur le réseau, outil de stratégie, sont encore peu nombreux alors que la démarche réseau s’impose d’elle-même de nos jours, car : qui peut innover seul ? qui peut encore penser que l’on peut vivre heureux en vivant caché ? L’union fait la force et si la compétence est individuelle, l’intelligence est collective, nous dit Christian Marcon. Dans l’opinion publique, le terme de réseau garde une connotation « louche » mais c’est une question d’éthique personnelle car si le réseau peut être la mafia c’est aussi l’aide sur laquelle on peut compter en cas de catastrophe.

Notre conférencier aborde ensuite le thème du réseau relationnel, espace d’intelligence économique. Le réseau c’est l’ensemble des canaux de communication existant dans un groupe et leur configuration : ce n’est pas un espace homogène support de stratégies individuelles mais c’est l’ensemble de relations, en principe durables, émergeant entre plusieurs partenaires, le plus souvent institutionnalisés, dans des alliances et ayant une finalité économique et stratégique.

Les réseaux contemporains d’intelligence économique sont les réseaux professionnels (de filières, d’associations professionnelles…) et les réseaux socioprofessionnels (famille, voisins, amis…). Le réseau relationnel c’est aussi l’ensemble de liens sociaux dont l’individu hérite ou qu’il se créé au hasard de sa vie personnelle ou professionnelle. Dans la dynamique de l’intelligence économique, c’est la facilitation du contact pour l’obtention d’information selon le concept « cure and care ».

Christian Marcon cite encore le cyber-réseau dont le maillage repose de manière déterminante sur les outils de communication issus des technologies de l’information et de la communication ce qui facilite les échanges mais aussi avec risque de paralysie stratégique. Le réseau professionnel, formel ou non a comme raison d’être sa relation directe avec l’activité professionnelle des membres quel que soit le fondement de cette relation : lobbying, dynamisation d’activité, information, apprentissage collectif et davantage de pertinence dans la prise de décision.

Selon Christian Marcon, les facteurs clés de succès du réseau sont :

  • la volonté : la condition essentielle
  • la raison d’être ensemble : association, etc.
  • les règles du jeu : qui peut entrer, usages, langage, rythmes de fonctionnement, exclusion
  • l’organisation : carnet d’adresses, etc.
  • la matière à échanger : information, influence, réflexion, temps, relais, image, notoriété.

En termes stratégiques, tous les réseaux ne fonctionnent pas de la même façon ou du moins selon les mêmes ressorts stratégiques. La performance d’un réseau ne dépend pas de la taille du réseau mais du projet. Un réseau qui marche a souvent tendance au cloisonnement car « si on s’y sent bien on reste ensemble » ! A côté de cela certains réseaux sont créés par nécessité, comme par exemple un réseau bancaire. Un réseau a t-il un cycle de vie ? Sûrement, répond Christian Marcon bien que l’on n’ait pas de référence en la matière.

La deuxième partie de la journée est consacrée à la présentation de témoignages sur la manière dont le réseau est vécu et pratiqué, parfois avec ses limites, dans diverses entreprises et organisations suisses et françaises.

Les travaux sont ouverts par une présentation du nouveau cycle d’études postgrades HES en intelligence économique et veille stratégique, organisé par les Hautes écoles de gestion de Neuchâtel et de Genève. Plusieurs participants du premier cycle sont depuis peu diplômés, et l’un d’entre eux, Pierre Gfeller, présente plus tard les réseaux au sein de l’Observatoire de l’emploi. Un nouveau cycle d’études postgrades HES commencera en octobre 2005 pour s’achever en septembre 2007.

Marie Fuselier et Johanna Grombach présentent comment est mise en œuvre au Comité international de la Croix Rouge une démarche d’intelligence économique par la veille stratégique, en s’appuyant sur la gestion de l’information et en associant les thèmes stratégiques plutôt que les personnes ce qui permet à chaque employé de s’investir dans le système et de collaborer.

Marc Vuillet à Ciles, Directeur de l’Agence d’intelligence économique de Franche-Comté explique son travail avec les entreprises et comment il a pu mettre en place un dispositif d’intelligence économique collectif pour une filière industrielle. A partir de thématiques identifiées, l’information est partagée étant entendu que le veilleur, nous dit le conférencier, peut être n’importe qui.

Avec Michel Guinand, Directeur de la Fondation suisse pour les téléthèses, c’est la rencontre du réseau et du handicap. La seule possibilité de succès pour cette Fondation est le travail en réseau avec les associations de handicapés, de professionnels de la santé et des assurances sociales. Depuis quelques années, des collaborations ont été créées avec les Hautes écoles suisses.

Fabien Noir, responsable Market Intelligence et Forecasting chez Chicago Miniature Lighting, propose un retour d’expérience dans un domaine technologique spécialisé. Les objectifs du projet intelligence économique présentés par le conférencier sont au nombre de cinq :

  • stratégiques (avantage concurrentiel)
  • cyndiniques (protection du savoir-faire)
  • marketing commercial (vente, image…)
  • organisationnels (optimisation des flux d’informations internes)
  • sociaux (motivation, appartenance).

L’intelligence économique est focalisée sur l’environnement économique de l’entreprise et sur la définition de thèmes clés de surveillance.

Pierre Gfeller, diplômé des études postgrades HES en intelligence économique et veille stratégique, fait part de son expérience de mise sur pied d’un processus de veille à l’Observatoire romand et tessinois de l’emploi. Il aborde divers aspects :

  • De l’utilité de travailler en réseau
  • Les bases du fonctionnement de l’ORTE en tant que mission, connue de tous avec des axes de travail définis en amont
  • Les difficultés rencontrées : organisationnelles, le travail en lui-même, les techniques, la jeunesse de la structure qui a besoin de crédibilité.

Pour lui, le travail en réseau s’approche de l’intelligence collective.

En fin d’après-midi, Stéphane Benoît-Godet anime la table ronde, réunissant les intervenants de la journée auxquels s’est joint Stéphane Koch, président de l’Internet Society Geneva. Il propose à chaque panéliste de donner les mots clés qui caractérisent la journée. S’ensuit un échange avec l’auditoire, tous les participants à la journée s’accordant sur quelques éléments fondamentaux :

  • Le réseau a une identité forte
  • L’animation du réseau est problématique, il n’y a pas de solution universelle
  • Le réseau, qu’il soit institutionnel ou relationnel, doit vivre et c’est un défi quasi quotidien
  • Le réseau est basé sur l’humain, mais s’anime sur le principe de la bonne foi et de la volonté
  • Le réseau est indéniablement associé à la stratégie que l’on poursuit et au phénomène d’influence que l’entreprise veut avoir.
En guise de conclusion

Il ressort de cette deuxième journée que l’intelligence économique et la veille stratégique sont basées sur des solutions sur mesure mais dont le facteur humain est l’un des piliers sur lequel repose la réussite et la pérennité. L’entreprise ou l’organisation ne peut vivre sans réseaux, mais elle ne doit pas en être prisonnière. Le choix d’entrer dans les bons réseaux, la capacité de l’entreprise de les animer et de les utiliser dans un but stratégique est un élément fondamental de l’intelligence économique. L’aspect offensif du réseau reste encore en retrait car ce sont avant tout le travail collaboratif et le partage de l’information qui paraissent essentiels dans le processus.

Compte rendu de la journée d’étude ADBS sur la gestion de contenu

Helène Madinier, Haute Ecole de Gestion, Genève

Compte rendu de la journée d’étude ADBS sur la gestion de contenu

Le 19 avril 2005, l’Association française des documentalistes et bibliothécaires spécialisés (l’ADBS) a organisé à Paris une journée d’étude sur la gestion de contenu. Réunissant un peu plus de 80 participants, cette journée comportait un programme varié: d’une part des interventions destinées à faire le point sur la gestion du contenu et les fonctionnalités des différents outils, et de l’autre des récits d’expériences, d’outils et de réalisations (voir le programme détaillé).

On s’attachera ici à détailler spécifiquement les interventions clarifiant les différents concepts, et à résumer sélectivement quelques récits d’expérience.

Notions théoriques : document, GED et gestion de contenu

Tout d’abord, Martine Sibertin-Blanc, responsable du département de l’information publique à la documentation française, puis Philippe Martin, consultant du Cabinet Van Dijk, ont défini dans leurs interventions les notions de document, de GED et de gestion de contenu. Il y a différentes approches de la définition du document. Le document, défini par le groupe de recherche du CNRS RTP-Doc, est à la fois une forme, un signe et un medium. C’est aussi une représentation particulière de données sur un support. On va actuellement vers des documents composites, comportant différents niveaux (structure, image/video, éléments issus de bases de données etc…)

Le document numérique, lui, peut être défini comme un ensemble constitué d’un contenu, d’une structure logique, d’attributs de présentation permettant sa représentation.

La gestion documentaire, quant à elle s’attache à traiter et stocker des documents entiers, finis, et qui, même s’ils sont électroniques, ont souvent un équivalent physique. Et c’est dans la plupart des cas cet exemplaire physique qui doit être géré.

Alors que la GED ou gestion électronique de documents, comme son nom l’indique, doit gérer des contenus électroniques -qui sont aussi des documents entiers-. Alors si ceux-ci ne le sont pas au départ, dans un système de GED, il faudra les numériser. S’ils sont le produit d’une application bureautique, il faudra définir des circuits d’acquisition pour les traiter au sein du système d’information: dans tous les cas, dans la GED, la production du document lui-même est extérieure au système d’information. Sa fabrication, sa réalisation ne font pas partie intégrante du système d’information.

Son traitement, son stockage, sa recherche et sa consultation se feront eux, dans le cadre de la GED.

Certaines propriétés du document pourront être gérées par l’outil de GED: son cycle de vie (révision, archivage, suppression), son format, son processus de validation. Mais sa fabrication reste externe.

Alors que la gestion de contenu prend en compte la fabrication du document, sa rédaction ; elle permet de construire à la volée un document pour un support bien défini (Web, Cd-Rom, papier…), à partir des éléments qui le composent: les unités d’information.

On passe ici de la gestion du document à sa réalisation. Et du document entier à l’identification des unités d’information qui le composent. Ces unités d’information deviennent ainsi des ressources que l’on peut valoriser, réutiliser sur différents supports.

C’est particulièrement utile lorsque l’on a besoin de gérer dynamiquement des documents nécessitant une mise à jour permanente, comme des sites Internet ou Intranet, et cela sur plusieurs présentations possibles (sur écran, sur téléphone portable, sur Palm).

La gestion de contenu facilite la création en séparant forme et fond, et facilite la publication en aidant à la mise en forme.

Pour illustrer ces notions, M. Sibertin-Blanc a pris comme exemple les textes créés par le site Service public.fr -section droits et démarches- (http://www.servicepublic.fr) en montrant les formulaires nécessaires à l’édition. Les textes créés, assortis de métadonnées, sont ensuite repris par la Caisse des dépôts et Consignations, organisme partenaire des collectivités territoriales, qui redirigent ce contenu vers les mairies des communes; à leur tour celles-ci réutilisent ce contenu dans leurs sites respectifs. On voit clairement ici que l’adoption d’un système de gestion de contenu peut favoriser les échanges de contenu et le partage des connaissances.

On distingue habituellement deux systèmes de gestion du contenu: le WCM et l’ECM : le Web content management, donc gestion de contenu pour site Internet, et l’Entreprise Content management ou gestion de contenu pour site Intranet.

Fonctionnalités et outils

Philippe Martin, du cabinet Van Dijk, a indiqué les fonctions essentielles en gestion de contenu. Il s’agit de la création de contenu, la validation du contenu, et la publication. Les approches possibles d’outils sont les suivantes :

  • Ged avec portail
  • Portail
  • Solution collaborative
  • Gestion de contenu orienté Web ou orienté Entreprise

En ce qui concerne les outils, on retrouve les progiciels commerciaux connus que sont Documentum (orienté GED), Vignette et Plumtree (portails), et Livelink –Opentext- (solution collaborative). Parmi les logiciels open source, en termes de gestion de contenu orientée Web, on trouve notamment:

  • SPIP et SPIP Agora
  • Typo 3
  • Zope
  • Manbo
  • PHP Nuke

Il faut savoir que si les licences des logiciels libres sont gratuites, en revanche, les coûts de mise en œuvre sont importants. Pour mettre en place un système de gestion de contenu, il faut bien sûr partir d’une analyse de l’existant et des besoins, et concevoir l’organisation de la gestion avant la solution technique (qui produit ? qui valide ? quels processus ?)

Systèmes de gestion de contenu : la percée du logiciel libre

Cinq récits d’expérience ont ensuite été présentés, tous différents.

M6 utilise l’outil commercial Jalios pour son site Web.

Pour le réseau des chambres de commerce et d’industrie, c’est l’outil collaboratif ZOPE, logiciel libre, qui a été choisi, pour homogénéiser et centraliser l’accès aux services de 180 CCI indépendantes à travers un portail commun.

Le centre d’information sur l’Europe, Sources d’Europe, a choisi le logiciel libre Typo3 pour le site sur la constitution européenne. Ce site a pu être mise en œuvre dans des délais très courts, notamment grâce au recours à un prestataire (c’est-à-dire un intermédiaire, société de service en informatique, spécialisé en l’occurrence dans le logiciel libre). Ce site s’est révélé simple d’utilisation et de gestion, mais les coûts d’intégration ont été élevés (plus de 30 000 €).

Enfin le ministère de l’Equipement a choisi SPIP, et l’entreprise pharmaceutique Servier, pour sa GED, a choisi Documentum.

Ce qui frappe dans ce choix d’outils, c’est que sur cinq organisations, trois ont choisi des logiciels libres; il s’agit d’organisations du secteur public, ce qui n’est pas un hasard: c’est non seulement une tendance forte, mais c’est même une directive pour certaines administrations comme le Ministère de l’Equipement.

Ce dernier cas, présenté par Marie-Pascale Krumnow, est exemplaire. Ce ministère coordonne des domaines d’activité très différents: équipement, transports, aménagement du territoire, tourisme et mer. Il est doté de 100 000 agents, en partie décentralisés. Avant le projet, il existait au sein du ministère environ 120 sites Web très hétérogènes sur des logiciels différents et une documentation variée, complexe et volumineuse.

Le projet de gestion de contenu a eu ici 2 facettes: le choix d’un outil commun de publication Web et la modélisation des types de documents.

Le service de documentation a notamment défini un référentiel de types de contenu, des règles communes de travail et de gestion ainsi qu’une charte éditoriale et une charte graphique.

C’est donc ici un rôle pivot de coordination, de normalisation et d’aide à la production qui est assumé par la documentation.

Conclusion

La gestion de contenu ou content management, maintenant bien implantée, comporte non seulement une dimension de gestion documentaire et organisationnelle, mais également une dimension éditoriale fondamentale; elle est également indissociable d’outils spécifiques, qui permettent une intégration accrue des processus de travil que sont la rédaction, la validation, et la publication (diffusion) de l’information.

En termes d’outils, une tendance se confirme: l’utilisation de logiciels libres, de plus en plus répandue dans l’Administration française. Pour certains, cela représente une économie, car l’organisation concernée (c’est le cas du Ministère de l’Equipement) peut, le cas échéant, utiliser ses ressources disponibles en informatique pour le paramétrage.

En termes de compétences, même si la gestion de contenu fait appel à des compétences pluridisciplinaires, c’est une opportunité renouvelée pour les documentalistes; mais encore faut-il qu’ils se mettent à la portée de leurs utilisateurs et ne créent pas des systèmes trop complexes, qui sont peut-être des modèles au niveau documentaire, mais trop complexes à l’utilisation, comme la classification réalisée par une documentaliste pour une des rubriques d’un des sites d’Air France (comme l’a indiqué M. Lalaude dans son intervention).

Si les documentalistes s’affirment et se mettent à la portée de leurs utilisateurs, ils ont alors un rôle essentiel à jouer dans des domaines comme l’ingénierie documentaire, la définition des métadonnées, la classification et la normalisation.