Publiée une fois par année, la Revue électronique suisse de science de l'information (RESSI) a pour but principal le développement scientifique de cette discipline en Suisse.
Présentation de la revue
Contenu du site
Se connecter
Publié par Ressi
Les pratiques d’accès à l’information : le cas des concepteurs de produits de placements financiers
Ressi — 30 août 2005
Eric Thivant, Université Lyon 3, France
Laid Bouzidi, Université Lyon 3, France
Résumé
Cette étude propose un nouveau cadre conceptuel pour expliquer les pratiques d’accès à l’information des professionnels, c'est-à-dire les pratiques de recherche et d’utilisation de l’information pour l’action dans un cadre professionnel, en prenant l’exemple des professionnels financiers et plus précisément des concepteurs de produits financiers. Prenant appuis sur un paradigme « orienté usages », très utilisé dans le monde anglo-saxon, ce travail de recherche souhaite démontrer l’intérêt d’un nouveau cadre théorique et méthodologique « orienté activité », pour décrire ces pratiques d’accès à l’information, en prenant le cas à la fois des concepteurs de bons d’option et des concepteurs de produits collectifs (Organismes de Placements Collectifs en Valeurs Mobilières). Ce nouveau cadre s’appuie sur l’hypothèse selon laquelle l’activité influence directement les pratiques d’accès à des professionnels financiers et propose deux méthodes d’entretiens spécifiques qui prennent en compte la spécificité de la notion d’information pour un milieu professionnel et pour une activité donnée.
Abstract
This study deals with information seeking and use behaviour for professionals, that is to said in a professional context, by taking the financial professionals’ example and more exactly the financial products’ designers. Taking supports on a "oriented user" paradigm, very used in the Anglo-Saxon world, this paper wishes to demonstrate the interest of a new theoretical and methodological framework "oriented activity", in order to describe these information access practices, by taking some examples such as warrant designers and collective products designers (Collective Investment vehicles). This new framework is based on the hypothesis according to which activity directly influences the information access practices for financial professionals and proposes two specific methods which take into account the specificity of the notion of information in a professional environment and for a given activity.
Les pratiques d’accès à l’information : le cas des concepteurs de produits de placements financiers
Introduction
L’arrivée du tout numérique et d’internet dans le monde du travail modifie l’activité des professionnels et change profondément leurs pratiques d’accès à l’information, c'est-à-dire leurs pratiques de recherche et d’utilisation de l’information dans le contexte professionnel.
L’objectif de cet article est donc de réfléchir à la mise en place d’un nouveau cadre théorique et méthodologique susceptible de rendre compte de ces pratiques informationnelles quotidiennes qui sont bouleversées par les nouvelles technologies de l’information et de la communication.
Dépassant le clivage aspects-techniques / aspects-humains en science de l’information, mis en évidence par Deschamps (2005), et ne pouvant pas se satisfaire entièrement du paradigme « orienté usages » du monde anglo-saxon, notamment pour comprendre les trouvailles ou la sérendipité des acteurs en situation (Van Andel, 2005), nous souhaitons donc mettre en évidence la nécessité d’un nouveau cadre théorique « centré activité », émergeant peu à peu des différentes recherches actuelles. Ce nouveau cadre théorique proposé doit alors s’accompagner de nouvelles méthodologies et d’outils d’analyses pour étudier ces pratiques. Nous présenterons ci-dessous deux exemples réalisés dans le cadre d’une activité financière.
1. Le paradigme « orienté usagers » et perspectives
1.1. Présentation de ce paradigme
Le paradigme « orienté usages » est un cadre théorique et méthodologique ouvert, apprécié par la communauté scientifique en science de l’information, puisqu’il permet de décrire les pratiques d’accès à l’information de tout à chacun. Peu de travaux avant la naissance de ce paradigme ont porté sur l'échange, le transfert, la recherche et l'utilisation de l'information. Ce paradigme dominant en science de l’information, s’est progressivement constitué autour d’un vocabulaire commun et de principes d'actions identiques, dont notamment le principe de décomposition par étapes, admis par l’ensemble de la communauté scientifique, qui permet de décrire et d’analyser dans le détail les principales pratiques de recherche et d’utilisation de l’information des professionnels.
Enfin pour pouvoir comprendre comment les acteurs conçoivent et gèrent des produits financiers, nous nous interrogerons sur les mécanismes cognitifs, psychologiques et sociaux de ces professionnels. Plusieurs approches ont été très utilisées dans ce paradigme. Nous pouvons citer l’utilisation de l’approche sociale empirique, de l’approche de psychologie cognitive ou de création de sens (Dervin, 2003) ou encore l’approche de psychologie sociale.
1.2. Principales définitions
Ce paradigme a permis l’émergence d’un consensus sur un certain nombre de définitions dont les notions de pratiques de recherche, de pratiques d’utilisation et de pratiques d’accès à l’information. Et nous ne pouvons pas nous désintéresser de cette richesse sémantique (1) :
La pratique informationnelle « peut être considérée comme l’ensemble des actions et des choix de l’individu lors d’une phase de recherche d’information provoquée par un besoin d’information ». (Sarméjeanne, 2001). Comme le précise Wilson (2000) ces actions et ces choix peuvent être actifs et / ou passifs, conscients ou non et toujours liés aux différentes sources et canaux d’information. Ainsi cette définition peut inclure la communication de face-à-face, ainsi que la réception passive d’information comme le fait de regarder de la publicité à la télévision sans aucune intention d’agir sur l’information reçue (2) .
La macro-pratique de recherche d’information (Information Seeking Behavior ou I.S.) c’est l’ensemble des actions et des choix intentionnels d’un individu en matière de recherche d’information en réponse à un besoin d’information. Dans la course à la recherche d’information, l’usager peut interagir avec des systèmes d’information manuels (comme des journaux ou des bibliothèques) ou avec des systèmes informatiques, comme le World Wide Web. (Wilson, 2000) (3) .
La micro-pratique de recherche (ou repérage) d’information (Information Searching Behavior) est une micro-pratique, mise en œuvre par le chercheur d’information en interagissant avec le système d’information médiatisés ou non. Ces pratiques sont constituées par l’ensemble des interactions avec le système d’information, soit à un niveau interactionnel entre l’homme et la machine (par exemple utilisation de la souris ou des clics sur des liens), soit à un niveau plus intellectuel (par exemple adopter une stratégie de recherche booléenne ou déterminer des critères pour choisir entre deux livres intéressants sur une étagère de bibliothèque) sur la base de choix cognitifs des usagers comme le jugement sur des données pertinentes ou sur des résultats de recherche documentaire (Wilson, 2000) (4) .
La micro-pratique de repérage d’information documentaire (ou de recherche documentaire) (Information Retrieval Behavior IRB) : est une micro-pratique de repérage d’information avec l’aide de systèmes d’information médiatisés, afin de repérer des documents pertinents dans des bases de données ou sur internet / intranet, et en servant de méta-données au sein de ces bases de données.
La pratique d’utilisation de l’information (Information Use Behavior) est l’ensemble des actions et des choix, permettant d’enrichir les connaissances et les savoirs d’une personne à partir de l’information trouvée. Ces actions peuvent prendre la forme par exemple d’une annotation d’un texte en fonction de l’importance ou de la signification des différents paragraphes ou sections et ces choix peuvent permettre de comparer les informations déjà connues et les informations trouvées (Wilson, 2000) (5) .
La pratique d’accès à l’information (Information Seeking and Use Behavior ISU) est l’ensemble des actions et des choix des acteurs mis en œuvre pour la recherche et l’utilisation de l’information.
Figure 1 : Le modèle en oignon de Wilson (1999, p. 252)
1.3. Principales représentations des pratiques d’accès à l’information
Le point de départ des user studies est le suivant un utilisateur individuel d'information s'engage dans un comportement de recherche d'information en réponse à un besoin perçu. Le concept de besoin semble être très difficile à traduire en termes de recherche alors que le concept de pratique de recherche d'information information-seeking behaviour est une activité (information related activity) identifiable, observable et pouvant être (dé-)construite (voir la figure n°1). Le professionnel pressent un besoin, mais il ne peut pas toujours le définir ou savoir qu'il en a l’utilité, Wilson (2000).
Figure 2 : Le modèle de Wilson de 1981 (1999, p. 252)
Ellis et Haugan (1997, p. 395) recensent huit étapes principales : initialisation ou démarrage de la recherche (starting), exploration et enchaînement (chaîning), différentiation des sources d'information (differentiating), extraction (extracting), vérification de l'information (verifying) et recherche finale. Deux étapes intermédiaires peuvent être utilisées à savoir l'utilisation de recherche dirigée ou navigation (browsing) et la veille ou surveillance (monitoring). Tandis que Kuhlthau ne trouve que 6 étapes (reconnaissance du problème, identité et formulation de ce problème, rassemblement d'information, présentation et évaluation de l'information). Voir la figure n°3 ci-dessous :
Figure 3 : Le modèle d'Ellis et le modèle ISP (Information Search Process) de Kuhlthau
Selon les travaux de Bernhard (1998, p. 7), près d’une dizaine de modèles de recherche d’information existent et le nombre d’étapes fluctue de 3 à 9 étapes. (dont le modèle d’Irving et Marland, d’Eisenberg et Berkowitz, d’Herring et différentes associations). Sans parler du modèle EST (Évaluation, Sélection, Traitement), que nous décrit Morizio (2002, p.75). Ces modèles sont essentiellement destinés à rendre compte des pratiques de recherche d’information appliquée, soit à l’enseignement primaire et secondaire, soit à l’enseignement collégial et supérieur. Seuls Tenopir (2004), Case (2002) et Cheuk (1999) ont retenu notre attention, car ils ont étudié d’autres professions tels que les ingénieurs et les architectes.
Nous devons parler surtout des travaux de Cheuk (1999), qui a travaillé avec le monde professionnel dans trois contextes de travail différents : Huit ingénieurs « qualité », huit auditeurs (ou commissaires aux comptes) et huit architectes ont été ainsi interrogés, ils travaillaient tous à Singapour. Cheuk constate alors que les situations de « recherche et d’utilisation d’informations » (ou RUI) sont au nombre de dix situations différentes :
- La tâche initiale : c’est une situation où les ingénieurs s’aperçoivent qu’il y a une tâche à accomplir, qu’un besoin se « fait sentir ».
- La formulation centrale : les ingénieurs perçoivent qu’ils doivent obtenir une meilleure compréhension des problèmes qu’ils ont dans leurs mains, c’est-à-dire décider, dans quelle zone spécifique, ils peuvent agir.
- Le choix de l’idée : dans cette situation, les ingénieurs commencent de se faire une idée sur les problèmes à résoudre. Pour s’assurer que l’idée est bonne, ils vont chercher toutes les réponses possibles et évaluer toutes les réponses, une à une.
- La confirmation de l’idée : dans cette situation, les ingénieurs vont déterminer une idée, par exemple de ce qui a causé un échec pour un nouveau produit. Et ils essaieront de vérifier que l’idée émise est la bonne. Il pourrait y avoir alors plusieurs bonnes idées retenues, et la vérification ne pourra être réalisée qu’avec le concours de plusieurs personnes simultanément, lorsque cela est possible.
- Le rejet de l’idée : dans cette situation, les ingénieurs peuvent découvrir des idées conflictuelles, ou ils ne peuvent pas obtenir les informations requises pour confirmer leurs idées.
- La finalisation de l’idée : dans cette situation, le but des ingénieurs est de chercher un consensus formel et d’obtenir des informations complémentaires pour confirmer et finaliser leurs idées.
- La mise en chantier de l’idée : dans cette situation, les ingénieurs présentent leurs idées à une audience déterminée avec différents objectifs définis. À partir des idées réunies, les ingénieurs vont faire passer leurs idées.
- La mise au point du projet : les ingénieurs ont besoin de rechercher des informations supplémentaires pour réaliser le projet envisagé.
- La recherche d’approbation : les ingénieurs recherchent des approbations officielles pour continuer leurs travaux.
- La situation d’attribution d’approbation : les ingénieurs ont besoin de rechercher de l’information avant de recevoir l’approbation d’autres personnes.
Cependant, il faut remarquer que les ingénieurs ne suivent pas de schémas séquentiels spécifiques et peuvent passer d’une situation à une autre sans ordre préétabli, à condition toutefois de connaître l’autonomie effective (élaboration de ses propres règles d’actions) ou allouée (espace discrétionnaire d’action, imposée de l’extérieur) des acteurs. C’est ce dernier modèle qui retiendra notre attention pour décrire des pratiques d’accès à l’information.
Ce n’est qu’à partir de cette base commune, que les chercheurs ont développé différentes représentations des pratiques d’accès à l’information, comme le micro-modèle de Bates ou le macro-modèle de Wilson (voir ci-dessous).
Figure 4 : Le micro-modèle de Bates avec les différents modes de recherche d'information (2002)
La recherche directe et active, que nous pourrions nommer « repérage », essaie de répondre aux questions que nous nous posons ou de comprendre un sujet particulier. Ce mode de recherche, pour Bates (2002), est peu usité pour l’utilisateur lambda.
La veille est complémentaire à un autre mode de recherche la « navigation », même s’ils sont opposés. La veille est réalisée de façon directe et passive. Les personnes restent en alerte sur des sujets qui les intéressent et se contentent de rester informés (« maintaining current awareness »). Généralement l’environnement social et physique est arrangé pour que l’information parvienne au moment opportun (Hutchins, 2000).
La navigation (browsing) est un mode de recherche indirect et actif. Ici nous n’avons pas de besoin précis ou d’intérêt, mais nous cherchons activement de nouvelles informations (la curiosité peut conduire à ce mode de recherche).
La conscience est un comportement passif et indirect. Une grande partie (80%) de ce que nous connaissons provient du fait d’être simplement conscient. Comme le suggère Sandstrom, les personnes cherchent avant tout à réduire leurs efforts de recherche.
Le macro-modèle de Wilson est davantage général et regroupe les principales représentations théoriques des pratiques informationnelles et d’accès à l’information (notamment le modèle de Kuhlthau et d’Ellis) :
Figure 5 : Le macro-modèle de Wilson
Les différents modèles de Wilson de 1981 et 1996 s’appuient sur d’autres disciplines, comme la psychologie. Premièrement, le besoin d'information secondaire émerge à partir de besoins basiques (physiologiques, cognitifs ou affectifs), dépendant de la personne, son travail ou son environnement (politique, économique, etc.). Deuxièmement, dans son effort de recherche d'information, le chercheur est gêné par différentes barrières ou « variables intervenantes ». Enfin, différentes théories expliquent certaines pratiques constatées, comme la débrouillardise (théorie du stress / chaperon), l’utilisation de certaines sources par défaut (théorie du risque / récompense), et l’adaptation de son comportement pour réaliser avec succès une tâche (théorie de l'apprentissage social et du « self-efficacy »).
Ce macro modèle ne se concentre pas uniquement sur la recherche active du comportement informationnel mais plus globalement sur les pratiques d’accès à l’information. (ainsi la personnalité de l’acteur peut inhiber ou au contraire aider la recherche d'information). Ainsi ce modèle peut servir comme source d'hypothèses à vérifier, même si elles sont implicites. Cependant, ce modèle n'est pas complet. Les effets du contexte sur la personne ou sur sa motivation sont peu précis. C'est un méta-modèle, pas un modèle d’activité. Néanmoins, utiliser ce modèle dans un contexte professionnel pourrait être intéressant.
Enfin, d’autres modèles de recherche d’information médiatisée plus spécifiques pour internet ont été développés. Nous citerons ainsi le modèle cognitif d’Ingwersen (1992), le modèle épisodique de Belkin (1985), d'interaction stratifiée de Saracevic (1996). Les travaux de Marchionini (1995) complètent cette approche.
1.4. Critique et faiblesse du paradigme « orienté usages »
Suite à cette présentation, nous voyons trois principales critiques à ces modèles d’accès à l’information développée dans le cadre de ce paradigme : les méthodes, les résultats et les finalités de ces différents travaux de description, ne sont pas identiques. Ainsi concernant les finalités, Ellis s'intéresse davantage aux différences entre pratiques de recherche observables sur le terrain et Kuhlthau s’intéresse surtout à l'analyse des pratiques d’un point de vue plus psychologique et introduit l’analyse des sentiments dans ce processus. De même ces travaux s’appuient sur des corpus très différents les uns des autres.
Ensuite ces travaux décrivent soit des « pratiques d'accès à l’information » (Wilson, 1999), soit des pratiques de recherche, de repérage ou d’utilisation de l’information, soit des pratiques de recherche médiatisée et en particulier de « recherche documentaire » (Ingwersen, 1992). Une nouvelle approche théorique et méthodologique plus centrée sur le monde professionnel est nécessaire. Ces descriptions nous interrogent sur le nombre exact d’étapes nécessaires pour effectuer une recherche d’information : les modèles de Ellis (8 étapes), de Kuhlthau (6 étapes), de Tenopir (8 étapes), ou de Cheuk (10 étapes) sont là pour nous montrer la complexité de l’analyse et la difficulté d’arriver à des résultats uniques.
Par conséquent ce cadre large ne peut nous satisfaire puisque l’ensemble des modèles théoriques décrivant les pratiques d’accès à l’information sont plus ou moins analytiques et / ou descriptifs, presque toujours perçus comme linéaires et donc s’appuient sur des notions plus ou moins bien définies. Un problème majeur de ce paradigme « orienté usages » est bien entendu la définition des principales notions comme celle de « besoin d’information » ou « besoin informationnel » qui comme le souligne Le Coadic (1998) ou Kuhlthau (1997) doit être mieux défini pour pouvoir être utilisé correctement. Il est plus facile de définir des pratiques d’accès à l’information que d’appréhender les besoins. Vouloir baser son questionnement et son raisonnement sur ces modèles de pratiques d’accès à l’information ne nous semble guère pertinent. Il faut développer de nouveaux modèles qui tiennent compte de la réalité sociale et formuler d’autres hypothèses plus pertinentes.
2. Proposition pour une nouvelle approche théorique et méthodologique
2.1. Précisions sur le « paradigme activité »
Comme nous l’a déjà bien expliqué Henneron, Metzger et Polity (1997), la science de l’information a bien évolué ces cinquante dernières années, en passant par plusieurs paradigmes successifs.
Jusqu’au début des années 80, les travaux sur les recherches documentaires en Science de l’Information se sont déroulés sous le paradigme classique orienté système.
Ensuite, durant la décennie des années 80, un nouveau paradigme a émergé : le paradigme cognitif orienté-utilisateur. L’utilisateur et son interaction avec le système d’information sont devenus le centre d’intérêt de ce nouveau courant. Ainsi comme le cite Polity (2001), « le système d’information est considéré comme un système de communication entre un producteur d’information ou auteur et un utilisateur ».
Enfin, dans les années 90, le paradigme social « orienté usages » est apparu. Le courant de recherche anglophone serait les user studies. Les travaux de Dervin (1999), Wilson (1999), Ellis (1997) et Le Coadic (1998) peuvent être rattachés à ce courant de pensée qui s’intéresse d’abord aux usages. Pour Chaudiron et Ihadjadene (2002), « le paradigme usager considère que l’attention doit être portée sur les besoins réels de l’usager et son environnement. [..] le point commun de ces différentes approches est de proposer une modélisation des usagers et de leurs comportements ». Reste à bien définir ce que l’on peut entendre par usages et usagers.
Dans les années 1999-2005, un nouveau courant de recherche se développe, que nous dénommerons « paradigme activité », où l’acteur, celui qui se trouve dans l’action et qui agit, doit être au centre de l’analyse. Mais il est trop tôt pour parler de paradigme au sens américain du terme, étant donné la faiblesse des travaux dans ce domaine, même si Choo (1998) ou Järvelin (2003) nous ouvrent cette voie de recherche. Ce courant de recherche fait appel aux avancées et aux concepts développés par différentes théories, notamment sociales (comme la théorie des cadre de Goffman), psychologiques (théorie de l’activité avec Leont’eev et Kuuti et qui est très présent dans le courant « Interaction Homme-Machine ») et cognitives (la théorie de la cognition distribuée ou située avec Hutchins ou de l’analyse du travail cognitif de Fidel). Les approches retenues sont donc plutôt majoritairement de type sociocognitif (Hjørland, 1997), pour pouvoir expliquer le processus de recherche et d’utilisation de l’information professionnelle. En effet, nous voulons nous intéresser non pas à l’utilisateur, mais à l’information que l’acteur cherche et utilise (Henneron, et al., 1997). Et dans un contexte professionnel, nous devons prendre en compte la situation de travail. Ce courant de recherche considère que l’activité influence plus ou moins directement les pratiques de recherche et d’utilisation de l’information. La principale hypothèse est que les actions de recherche des personnes sont fortement contraintes par leurs activités professionnelles (Cote, 1997).
L’activité est une construction sociale et économique, soumise à de nombreuses contraintes comme le temps ou l’expérience (novice ou expert). L’activité est donc dynamique et complexe. La notion d’activité est sans doute très proche de la notion de « cadre » de Goffman (2001). Et différentes situations d’interaction existent entre acteurs comme dans les situations de coopération et de coordination, qui ont un impact direct sur les pratiques d’accès à l’information des professionnels (voir les travaux de Järvelin (2003) et de Fidel (2004)).
2.2. Pratiques d’accès à l’information professionnelle et activités informationnelles
Redéfinissant les principales notions de ce nouveau paradigme, dénommé « activité », nous rajouterons que la pratique informationnelle « peut être considérée comme l’ensemble des actions et des choix de l’individu lors d’une phase de recherche d’information en vue d’une action, provoquée par les nécessités des situations, par certains états inadéquats ou anomalies de connaissance ou manques informationnels pour réaliser ces activités et enfin par les problèmes informationnels ou les facteurs clés de succès, issus du contexte socioprofessionnel au sens large (le manque d’information n’est pas forcement voulu, ni explicite alors que le problème est davantage apparent). À partir de cette définition, la pratique informationnelle est encadrée par l’activité (ici l’activité de conception et de gestion de placements financiers), par la situation donnée, et le contexte socioprofessionnel au sens large ». Car non seulement l’activité fait partie du contexte pour la pratique informationnelle, mais en plus, elles partagent toutes deux ce même contexte.
Le contexte pour Goffman (2001) est pluriel, une organisation peut être considérée sous l’angle « technique, en fonction de son efficacité ou inefficacité en tant que système explicitement organisé en vue d’atteindre des objectifs préalablement définis » (p.226). Il peut l’être aussi sous l’angle politique, structural, culturel et en utilisant l’approche dramaturgique.
Une situation sociale pour Goffman (1991), est « un environnement fait de possibilités mutuelles de contrôle, au sein duquel un individu se trouvera partout accessible aux perceptions de ceux qui sont « présents » et qui lui sont similairement accessibles. Selon cette définition, une situation sociale se produit dès que deux individus se trouvent en présence mutuelle immédiate, et se poursuit jusqu’à ce que l’avant-dernière personne s’en aille. [..] Des règles culturelles régissent la manière dont les individus doivent se conduire en vertu de leur présence dans un rassemblement [...] ». Et « Toute définition de situation est construite selon des principes d’organisation qui structurent les évènements - du moins ceux qui ont un caractère social - et notre propre engagement subjectif » (p.146-147).
Comme nous l’explique clairement Dessinges (2002), « la situation traduit une forme typique et stabilisée d’environnement qui organise l’action qui doit venir, à un moment ou un autre, s’y dérouler » (p. 100). Et cette situation est définie par l’organisation de l’expérience de chacun ou plutôt par les différents modes de structuration de l’expérience (nous parlerons alors de cadres).
Il existe différentes sortes de cadres primaires pour Goffman (1991), les cadres naturels, dictés par des évènements extérieurs aux personnes (un phénomène naturel comme un tremblement de terre). Et les cadres sociaux, qui dépendent d’une action pilotée, comme le cadre de la conception de produits. Nous pensons en effet, que l’activité de conception constitue un ou plusieurs cadres et non pas une situation car les cadres primaires organisent les activités. Comme le rappelle Goffman (1991), « chaque type d’action appartient en propre à un idiome spécifique qui relève lui-même d’un cadre distinct ». En l’occurrence, le concepteur assimile, par l’expérience, des représentations et des schémas d’interprétation particuliers sur le phénomène de la conception de produits financiers. Mais ces cadres primaires peuvent évoluer en fonction des interprétations. Soit sous forme de transformation ou modalisation (strate modèle et modalisée), soit sous forme de fabrication (qui désoriente l’activité d’un ou plusieurs individus).
Si nous restons dans cette perspective goffmanienne, nous émettons l’hypothèse que le besoin d’information n’est en fait que le résultat de la perception d’une transformation de cadres, dans une situation donnée. Par exemple, un concepteur de produits connaît la procédure de création d’un fonds commun de placement action et il doit maintenant créer un fonds commun de placement pour l’innovation. Il y a une transformation du cadre primaire de l’activité de conception, qui passe du cadre de conception d’un FCP à celui d’un FCPI. Le concepteur mobilise un cadre de recherche d’information spécifique qui a fait ses preuves pour les FCP. Mais ce dernier évolue du fait de la demande de création d’un FCPI, car l’activité encadre cette pratique. Le besoin d’information naît alors d’un changement de cadres.
2.3. L’activité informationnelle et l’information organisationnelle au cœur de ce paradigme
L’« activité informationnelle », nouvelle notion qu’introduit Guyot doit être prise en compte aussi dans ce contexte : « L’activité d’information recouvre à la fois la manière dont un individu agence pour son compte informations et documents et mobilise des ressources disponibles dans des dispositifs et à travers des outils de plus en plus nombreux ». (Guyot, 2001).
Cette « activité informationnelle » bénéficie de la base théorique des recherches en science de l’information, notamment en terme de pratiques d’accès à l’information (Wilson, 1999). Mais il faut s’intéresser non seulement à l’activité de recherche et d’utilisation de l’information pour une tâche isolée, mais aussi à l’ensemble des activités de gestion et de production d’information pour l’activité principale (Hjørland, 1997). Lorsqu’un objectif est atteint, l’activité continue. Les acteurs sont des producteurs, des gestionnaires et des consommateurs d’information dans le cadre de leurs activités professionnelles (Guyot, 2001). Et progressivement les acteurs rationalisent et standardisent les outils technologiques pour gagner en efficacité. C’est tout qu’il faut prendre en compte.
Reprenant l’analyse de Choo (1998) nous pensons que l’analyse de l’activité informationnelle doit non seulement prendre en compte les pratiques de recherche et d’utilisation de l’information, mais aussi les pratiques de gestion et de production de cette information nécessaire pour l’action (voir schéma ci-dessous).
En 1998, Choo a comparé les principaux modèles de pratiques d’accès à l’information et a décomposé ce processus d’accès en trois étapes centrales : le besoin, la recherche et l’utilisation de l’information. Et il a ensuite examiné les effets cognitifs, affectifs et contextuels de chaque étape en fonction des modèles.
Figure 6 : Analyse multidimensionnelle du besoin à l’utilisation de l’information (Choo, 1998, p.61)
Puis en 2001, Choo a développé le cube de « l’information organisationnelle » qui représente les principales étapes de la prise d’une décision pour un professionnel dans une organisation type, avec les différentes variables qui doivent être prises en compte. Un besoin d’information émerge chez un professionnel qui se trouve dans une situation professionnelle affective et cognitive donnée. Avec le temps et les moyens disponibles dont il dispose, il se lance dans des recherches d’information appropriées créant ainsi des savoirs pour une prise de décision ultérieure à l’aide de l’information recueillie et de nouvelles connaissances.
Figure 7 : Le cube de l'information organisationnelle
Cette approche doit tenir compte de l’évolution paradigmatique et notamment de « l’activité informationnelle ». En reprenant donc la définition de Guyot, nous proposons de prendre en compte non seulement toutes les étapes, qui se situent en amont de l’utilisation de l’information (du besoin à la recherche d’information) mais aussi tout ce qui est en aval, à savoir la gestion et la production d’information professionnelle. En outre, chaque professionnel se trouve dans des situations différentes (contexte professionnel, affectif, cognitif, social). Mais en outre lorsqu’il s’agit de chercher, d’utiliser ou de gérer de l’information, le professionnel est contraint par les choix technologiques de son entreprise (présence ou non de systèmes de gestion électronique de documents (GED) ou de processus métiers (workflow) adaptés) et aussi de méthodes personnelles de travail acquises au fil de l’eau, en fonction de son métier et de son environnement. Naturellement, il ne faut pas considérer ce modèle comme un modèle linéaire. À partir d’une recherche d’information, nous ne sommes pas obligés d’utiliser immédiatement l’information trouvée, nous pouvons simplement la gérer (la mettre dans une base de données par exemple). Ensuite, nous pouvons utiliser l’information immédiatement, pour produire un document, sans se soucier de sa gestion ou de sa conservation ultérieure.
Figure 8 : Le cube de l'activité informationnelle avec les commentaires de Guyot
Des études précédentes ont déjà démontré l’influence directe de l’activité sur les pratiques de recherche et d’utilisation de l’information, dans certaines activités très encadrées. Par conséquent, nous proposons un nouveau modèle qui tient compte de la prépondérance de l’activité sur le besoin. L’activité professionnelle étant première, les besoins d’information découlent de cette activité (en dépit de Dervin, 2003). D’ailleurs dans la suite de notre présentation, nous nous intéresserons principalement à démontrer l’influence plus ou moins directe de l’activité de conception sur les pratiques d’accès à l’information de ces concepteurs, tout en tenant compte de leurs effets sur la gestion et la production de nouvelles informations.
Figure 9 : Le cube de l'activité informationnelle globale
Ce dernier modèle (figure n°9) représente donc l’ensemble des activités informationnelles d’un professionnel en tenant compte du cycle de vie de l’information et de l’ensemble des contraintes informationnelles liées à une activité donnée (prise en compte du contexte professionnel, des états affectifs, cognitifs du professionnel, de ses relations sociales avec ses collègues et supérieurs et des dispositifs technologiques collectifs et personnels que ce dernier peut utiliser).
2.4. Une méthode adaptée pour analyser l’activité informationnelle globale
Comme le concède Deschamps, il n’y a pas en science de l’information de méthodologie unique, elle doit pouvoir utiliser des analyses quantitatives et qualitatives à la fois. C’est là sa force, mais aussi sa faiblesse, elle doit savoir les utiliser avec parcimonie.
« Pour résoudre la plupart des problèmes en science de l’information, il est parfois nécessaire d’avoir recours à deux types de méthodologies mais selon nous, c’est plus une force qu’une faiblesse pour la discipline. La science de l’information s’est appliqué depuis une dizaine d’années au moins, à tirer parti des possibilités d’améliorer les analyses quantitatives et qualitatives concernant les relations dynamiques qui unissent des collectifs d’objets au sein de diverses communautés et leurs modes de représentations graphiques (analyses des communautés, cartographies de recherches, etc...) dans un ensemble de recherches formalisées dans la scientométrie. »
La méthodologie utilisée dans cet article est fortement dépendante de notre cadre théorique et des postulats sous-jacents expliqués ci-dessus. Ce cadre théorique postule que l’activité de conception influence les pratiques d’accès à l’information des professionnels, ici en l’occurrence des concepteurs de produits collectifs. Nous pourrions même aller plus loin en nous demandant si l’activité de conception n’influence pas non plus toutes les « activités informationnelles » des professionnels, de la recherche jusqu’à la production d’information. Mais cela est une autre problématique que nous n’évoquerons pas ici.
Pour démontrer l’utilité d’une approche duale, nous présenterons succinctement la méthode APAI (Activité, Produit, Accès à l’Information), que nous avons utilisé lors de nos précédents travaux et qui se compose d’une double approche, en premier lieu une approche constructiviste et ensuite une approche analytique.
Étant donné que la méthode APAI (Activité, Produit, Accès à l’Information) est d’abord une méthode qualitative, il suffit d’avoir un corpus somme toute modeste pour entreprendre une recherche et pour comprendre les pratiques de recherche et d’utilisation de l’information (ou d’accès à l’information) des financiers. À titre d’exemple, nous pouvons citer deux études antérieures que nous avons menées sur les concepteurs de produits de placements financiers (produits collectifs et dérivés) et où nous avons rencontré une vingtaine de financiers. Nous présenterons d’ailleurs ci-dessous les principaux résultats.
Le questionnaire traditionnel, basé sur une approche constructiviste « Sense-Making » concerne trois problèmes majeurs :
- L’analyse de l’activité ;
- Le problème de l’accès à l’information (la recherche et l’utilisation de l’information) et plus globalement de la place de l’activité informationnelle au cœur de cette activité ;
- Les représentations des concepteurs sur les nouveaux services financiers ;
L’analyse analytique se compose de cinq étapes principales et concerne plus spécifiquement les relations entre le produit et l’accès à l’information :
- Construction basique et schématique du produit financier avec les plus importantes variables. (Utilisation de la “ notice ” et du rapport de gestion) ;
- Présentation de ce schéma aux financiers ;
- Enregistrement du discours des financiers ;
- Analyse du discours avec les autres commentaires de professionnels et modification en conséquence, du schémas du produit financier ;
- Identification des pratiques d’accès à l’information des concepteurs.
La démarche consiste donc à construire une représentation basique, mais fonctionnelle du produit de placement financier puis ensuite de demander à des financiers de commenter ce schéma. Un enregistrement audio de leurs discours est recommandé, à défaut une prise de note rapide pourra suffire. Par la suite, nous réaliserons une analyse de discours et nous identifierons les pratiques d’accès à l’information de ces derniers.
Nous vous proposons ci-dessous de découvrir la première version utilisée pour construire une représentation basique du produit financier avec cinq caractéristiques principales (Caractéristiques Réglementaires, Administratives, Financières, de Fonctionnement, Commerciales). Pour nous, une caractéristique principale regroupe sous un même nom commun (nous pourrions même parler de rubrique) un ensemble d’éléments informationnels plus ou moins homogènes.
Figure 10 : Schématisation du produit collectif de type OPCVM en cours de constitution (version 0.4)
Cette version initiale, qui n’a pas été validée par les professionnels, reprend simplement les principaux éléments présents dans un produit de placement collectif (de type OPCVM). Ces éléments sont tirés des descriptions des différentes notices d’information dénommées « notices AMF » (AMF pour Autorité des Marchés Financiers) et de divers prospectus commerciaux distribués aux investisseurs épargnants. Cependant cette première version n’est pas complète et ne peut servir que comme base initiale à notre travail d’analyse.
Au cœur de notre méthodologie de recherche APAI, les phases dites « de présentation et d’analyse du schéma basique » (ici la figure n°10) sont essentielles car elles nous permettent de déterminer les indices (ou éléments) informationnels susceptibles d’amener le (ou les) concepteur(s) à réaliser ses tâches (ici la conception d’un nouveau produit financier).
Le concepteur a sûrement défini depuis longtemps, un cadre stéréotypé ou un scénario général pour concevoir ce produit financier. La présentation de la description basique éveillera chez notre interviewé des réactions immédiates qui nous permettront d’améliorer notre schémas. Mais attention, il ne faut pas généraliser ce principe, ce n’est pas simplement ce cadre ou ce scénario linéaire qui le guidera, il construira surtout le produit financier à partir des indices informationnels découverts au gré de sa démarche, au sens sémiologique du terme.
En tout cas, le concepteur est fortement contraint par le cadre de son activité, que nous faisons apparaître ici. Au fur et à mesure que de nouveaux indices informationnels sont trouvés, le concepteur déclenche des phases de recherche et d’utilisation de l’information successivement, jusqu’à l’aboutissement d’un produit vendable, dont la décision de commercialisation dépendra de la direction. Il est donc important de bien définir ces indices informationnels pour comprendre les pratiques d’accès à l’information.
3. L’exemple des concepteurs de produits financiers
Cette proposition pour un nouveau cadre de réflexions théoriques et méthodologiques doit pouvoir être applicable et pouvoir être validé sur le terrain. L’exemple ci-dessous, qui veut être un résumé de plusieurs travaux entrepris précédemment et réunis ici, doit nous permettre de démontrer l’intérêt d’une telle approche.
3.1. Description de l’activité de conception des produits de placement financier
L’activité de conception de produits financiers est une activité complexe, que ce soit pour des produits collectifs ou des produits dérivés : Le paradigme « usage » ne nous aurait pas aidés vraisemblablement car elle se concentre plus sur une partie du travail du professionnel sans se soucier de toute son activité informationnelle globale.
- Si nous prenons le cas des produits dits collectifs de type OPCVM (Organisme de Placement Collectif en Valeurs Mobilières), l’activité est difficile à définir, il n’y a pas un « concepteur » unique mais un ensemble d’acteurs, issus de différentes entités, qui travaillent ensemble pour vendre des produits de placements collectifs, par exemple des sociétés d'investissement à capital variable (SICAV) ou des fonds commun de placement (FCP). En général, un promoteur et / ou un distributeur fait appel aux services d’une société de gestion (qui gère les actifs du fonds : article L. 214-25 du code monétaire et financier) et d’un dépositaire (qui s’assure de la régularité des décisions de la société de gestion : articles 214-16 et 214-26 du Code Monétaire et Financier) pour monter le nouveau fonds ;
- Si nous prenons le cas des produits dits dérivés comme la conception de bons d’option (ou warrants), puis sa commercialisation s’appuie là encore sur de nombreux acteurs des différents services de la banque (services de front office, de back office, commerciaux, direction, etc.) sont nécessaires pour pouvoir lancer de nouveaux bons d’options.
Pour pouvoir analyser correctement ces pratiques d’accès et ces « activités informationnelles » nous devons d’abord analyser correctement ces activités principales en utilisant alors le questionnaire qualitatif, qui se révèle être d’un précieux secours. Ainsi les relations entre les dépositaires, les promoteurs et les gestionnaires de produits financiers peuvent être expliqués et la circulation de l’information entre ces acteurs peut être mieux expliquée. De façon globale, nous avons rencontré quinze promoteurs et distributeurs, trois dépositaires, deux gestionnaires et quatre concepteurs de bons d’option (sur les six ou sept de la Place de Paris) pour pouvoir faire cette analyse et qui ont réellement répondu à notre enquête.
Dans le cas des produits dits collectifs, nous trouvons 5 étapes principales :
Étape 1 : Cette étape concerne le choix du produit et la stratégie générale pour la vente du produit collectif (nom, cible).
Étape 2 : Cette étape concerne le choix de la stratégie d’investissement et des différentes spécifications du produit financier.
Étape 3 : Cette étape concerne les dernières modifications en matière de communication et de réglementation (recherche des agréments).
Étape 4 : Cette étape concerne le lancement du produit (présentation aux commerciaux des promoteurs et distributeurs, vente auprès des épargnants).
Étape 5 : la dernière étape concerne la gestion du produit avec différentes options (possibilité de modification du produit avec l’aide d’une partie ou de l’ensemble des participants, qui étaient présents lors de la conception de ce produit).
Figure 11 : Les principales étapes de la conception d'un produit collectif
Comme le rappellent Broady-Preston and Hayward (2001), « In product launch decisions, both customer feedback and competitor data were deemed crucial », les souhaits des clients et les propositions des concurrents sont des données précieuses pour lancer de nouveaux produits.
« L’activité bancaire consiste à être attentive aux besoins des clients et à la réponse des concurrents. Il faut être capable de créer un produit similaire dans les mois qui viennent pour pouvoir répondre à ce besoin. Sur les marchés financiers, c’est la tendance du marché, c’est l’anticipation. Il faut être très réactif. Sur les autres domaines, cela résulte plus d’une perception de longue haleine ou un trou dans la gamme de l’épargne » (promoteur n° 3).
Or c’est généralement le promoteur ou le distributeur du produit qui connaît le mieux les besoins des clients. « Pour commercialiser un produit qui marche, il faut qu’il corresponde aux attentes des clients. Sur une vision globale, il ressort toujours une tendance » (promoteur n°4).
L’étape n°1 (de la figure n°11) est caractéristique de cet état d’esprit de recherche d'information tout azimut, permettant d’enclencher le processus de création d’un nouveau produit financier.
« La conception, c’est beaucoup plus qualitatif. Créer, cela ne sert pas (toujours). La clé, c’est l’information. Il y a deux moyens importants : il faut se tenir informé des différents produits existants et de l’actualité juridique, fiscale et concurrentielle » (promoteur n° 1).
Sans oublier les recherches sur les attentes et les besoins des clients : « Les informations liées au mode de vie sont pour moi importantes, notamment l’accélération en terme de changement » (promoteur n° 6).
Généralement le promoteur/distributeur utilisera plusieurs techniques de recherche telles que la lecture de la presse, les groupes de travail, etc.
« Le groupe de travail va décider de l’avenir du futur produit et de sa mise en place. [...] Un exemple d’activité habituelle du groupe. On peut disséquer la presse spécialisée ou regarder les études de marché sur la conception de tel ou tel type de produits » (promoteur n° 4).
D’autant que cette recherche n’est pas l’apanage uniquement des promoteurs/distributeurs. L’idée peut provenir aussi de la société de gestion, notamment s’il s’agit d’un produit plus technique.
« Généralement les idées viennent du service marketing vers l’Asset Management. Mais pour les OPCVM garantis, il s’agit d’un produit exotique, qui ne provient pas du service marketing mais du service OPCVM. [...] L’exemple du multi fonds provient d’un avantage fiscal : il s’agit d’un concept marketing plus d’une discussion avec la société de gestion » (Promoteur 5).
En tout état de cause, dans l’étape n° 2, le rôle du promoteur est limité et donc la recherche d’information est avant tout une recherche de compromis avec les autres services.
« La création du produit [le produit multi fonds] a été guidée par la fiscalité et le service marketing. Mais il a fallu regarder la concurrence et voir à quelle condition un tel produit pouvait être créé. (Il a fallu regarder la tarification et ne pas proposer la même chose) » (promoteur n° 5).
En revanche, dans les étapes n° 3 et n° 4, les promoteurs et distributeurs sont aussi actifs. Mais ils ne rechercheront pas les mêmes informations que dans les deux précédentes étapes et peut-être, auront-ils plus de point de repères pour agir (les sentiments d’incertitude diminueront au fur et à mesure de leurs actions).
Ils utiliseront essentiellement l'information recueillie et retravaillée par les autres acteurs (dépositaires, société de gestion, autres services) pour promouvoir le nouveau produit.
Par exemple pour l’étape n° 3 : « La durée de conception d’un produit est très variable (de deux semaines pour commercialiser un produit de la concurrence jusqu’à six mois). Une fois que le produit et sa tarification sont décidés, il faut rédiger l’offre préalable avec le service juridique. Il faut ensuite l’éditer (voir avec un éditeur). En d’autres termes, on doit travailler de façon parallèle (utilise la méthode PERT). Le délai COB est un bon exemple, l’éditeur qui imprime aussi. Tant que je n’ai pas tout, le produit ne peut être commercialisé » (promoteur n° 1).
Il y a alors une recherche d'information qui est menée. Mais elle s'effectue dans un contexte différent et est similaire à une recherche d'approbation (recherche des termes convaincants pour les futurs investisseurs du produit).
« Les autres intervenants travaillent une fois que le concept est défini (explique les points forts et faibles) et que nous avons décidé de faire un mailing et après intervient en conseil et en relecture » (promoteur n° 1).
Concernant la phase 4, les promoteurs et/ou les distributeurs se mettront à l’œuvre pour vendre leur nouveau produit.
« Pour choisir les produits financiers, on produit d'une part la fiche technique des produits et d’autre part, une lettre trimestrielle qui est envoyée à tous les clients et tous les prescripteurs (par exemple notaires, experts comptables) » (promoteur n° 7).
Cette étape n’est pas la plus simple pour les promoteurs et distributeurs qui doivent persuader leurs clients d’investir dans ces nouveaux fonds, pas toujours éprouvés.
« Le problème est que l'on ne maîtrise pas un produit qui vient d'être créé. Il faut attendre pour un produit financier qui vient de sortir (pour qu’il fasse ces preuves) [...]D'ailleurs le fonds n'a pas marché tout de suite, il y a eu une période de gestion plus ou moins longue où il était difficile de savoir ce que cela allait donner. » (promoteur n° 7).
Enfin, les produits peuvent évoluer au fil de l’eau, suivant le type de produit. Et cela oblige alors les promoteurs et distributeurs à l’adapter. « Aucun produit n'est conçu pour sa performance (prévue), car il est vivant : sa caractéristique, c'est d'évoluer, il est en perpétuelle évolution » (promoteur n° 7).
De même pour l’analyse de l’activité de conception d’un produit dérivé tel que le bon d’option, nous décomposons l’activité en 4 grandes étapes, de la conception jusqu’à la vente de ces warrants.
Figure 12 : Les différentes étapes de conception d'un produit dérivé
3.2. L’activité informationnelle au cœur de la conception des produits de placements financiers
Dans ces deux activités de conception décrite très brièvement ici, nous nous rendons compte que la conception de produits financiers passent par des nombreuses situations dont des situations autonomes, de coordination et de coopération :
- La situation autonome : « La capacité et l’aptitude d’un acteur à élaborer ses propres règles d’actions » (Gilbert de Tersac et Erherd Friedberg).
- La situation de co-présence pragmatique : « La mise en relation première entre deux (ou plusieurs) acteurs en quête d’un consensus pour réaliser en commun certains objectifs » (Gramaccia, Laborde et Maurin).
- La situation de coopération avec un espace discrétionnaire : « Les acteurs peuvent choisir la solution mais dans un cadre de travail défini ” (Gilbert de Tersac et Bruno Maggi).
- La situation de coordination établie : « Chaque acteur sait ce qu’il a à faire. ». En fonction donc des situations rencontrées sur le terrain, les pratiques d’accès à l’information des professionnels financiers s’adaptent aux situations et utilisent des stratégies spécifiques. Ils optent pour des stratégies principalement axées sur la recherche d’information (étapes 1 et 2), puis sur l’utilisation d’information (étapes 3 et 4). Enfin ils gèrent au fil de l’eau l’information (étape 5) en produisant des rapports mensuels et annuels à leurs clients.
Figure 13 : Les situations d'autonomie, de coopération et de coordination pour la conception de produits financiers collectifs
3.3. Schématisation des produits de placement financier
Nous avons donc développé deux schématisations des produits financiers, pouvant déboucher sur la mise en place de langages de description financiers, très utile en informatique documentaire. La première description dénommée LPF (ou Langage des Produits Financiers) s’intéresse essentiellement aux organismes de placements collectifs (OPCVM) et la seconde LdBO (ou langage de description des bons d’option) aux bons d’option ou warrants. Considérant le produit financier comme un produit numérique et intangible, ces instruments auront deux avantages principaux pour notre étude :
- Ce sont des outils, qui fixent un cadre rigoureux pour l’élaboration de ces produits ou plus précisément de nouveaux produits financiers, comme des produits collectifs ou de produits dérivés. Ce sont des représentations formalisées, qui fixent avec une grande précision toutes les caractéristiques des produits financiers (produits collectifs et produits dérivés). Et permet de décrire la composante informationnelle du produit.
Par suite, ces instruments analytiques nous renseignent sur les informations recherchées au travers de commentaires précis des financiers à la vue du schéma LPF, décrits ci-dessus. Ces commentaires nous permettent en effet de ne pas oublier d’informations importantes dans le cadre de l’activité de conception de produits financiers et aussi de juger de l’importance ou de la prépondérance de certains éléments sur d’autres dans l’activité décrite. À titre d’exemple, nous vous présentons ci-dessous deux schématisations spécifiques aux produits financiers :
3.3.1. La schématisation d’un produit de placement collectif
Suivant la méthodologie appelée APAI (Activité, Produit et Accès à l’Information) décrite ci-dessus, auprès d’une vingtaine de financiers, nous avons pu améliorer notre premier schéma basique du produit collectif (figure n°10). Nous avons alors modifié le produit financier, en prenant en compte de nouveaux éléments prépondérants pour décrire ces produits. Nous avons proposé six caractéristiques principales en renommant les caractéristiques réglementaires en caractéristiques identitaires et en rajoutant des caractéristiques fiscales.
Ne pouvant mettre dans cet article l’ensemble des entretiens que nous avons recueillis sur le terrain, pendant plusieurs années pour notre thèse, nous nous contenterons seulement de certains commentaires très significatifs qui ont permis de faire évoluer favorablement la description du schéma pour les produits collectifs :
- En premier lieu, nous trouvons les caractéristiques administratives, qui s’intéressent exclusivement à la vie du produit (avec la réglementation en vigueur, le descriptif du fonds, le type de fonds, l’agrément, la date d’échéance, la clôture de l’exercice par exemple).
« Il faudrait mieux rajouter dans les caractéristiques administratives, la réglementation » (Dépositaire 1).
- Ensuite nous trouvons les caractéristiques identitaires, c’est à dire les principaux acteurs intervenant dans le processus de création et de gestion des produits de placements collectifs, avec le promoteur, le distributeur, la société de gestion (qui gère l’argent du fonds) et le dépositaire, le conservateur et le commissaire aux comptes.
« Pour moi, il y a vraiment trois grands [responsables]…. Il y a le dépositaire, le gestionnaire et le distributeur » (Dépositaire 1).
- Ensuite les caractéristiques financières décrivent le fonctionnement du fonds (description du placement, classification, techniques) et le type de valeurs (composition du portefeuille, zones géographiques, exposition aux risques, affectation des résultats).
« Dans les caractéristiques financières, la seule chose est que je voyais, c’est le rapport exercice. Je l’aurais mis ailleurs dans l’administratif » (Dépositaire 3).
- Les caractéristiques de fonctionnement décrivent l’ensemble des conditions d’exécution, des conditions de souscription, des conditions de rachat, le rapport exercice, et la périodicité de calcul de la valeur liquidative, ainsi que le libellé de la devise du fonds.
- Ensuite les caractéristiques commerciales concernent essentiellement la politique de gestion, les actifs gérés, la valeur liquidative, la durée minimale conseillée, l’apport des titres, la commission de souscription, la commission de rachat, les frais de gestion, les performances, et les souscripteurs.
« Concernant les frais de gestion nous avons des frais de gestion variable et des frais de gestion fixe. En outre, les méthodes de calcul des frais de gestion sont variables entre chaque produit ». (Dépositaire 2).
- Enfin, les caractéristiques fiscales rappellent simplement la fiscalité qui s’applique aux différents produits financiers commercialisés, et les principales modalités d’imposition sur les revenus et sur les plus-values.
Produit Financier [Caractéristiques Identitaires, Caractéristiques Administratives, Caractéristiques Financières, Caractéristiques Fonctionnement, Caractéristiques Commerciales, Caractéristiques Fiscales]
- Caractéristiques Administratives [Réglementation, Identification, Fonds, Agrément, Date de création, Échéance, Édition de la notice, Clôture de l’exercice, Centralisateur]
- Caractéristiques Identitaires [Promoteur, Distributeur, Dénomination, Forme juridique, Société de gestion, Dépositaire, Commissaire, Conservateur]
- Caractéristiques financières [Description du placement, Politique de gestion, Actifs gérés, Classification, Techniques, Indice de référence, Composition du portefeuille, Zones géographiques, Exposition aux risques, Affectation des résultats, Capital Garanti, Ratios, Performances]
- Caractéristiques de fonctionnement [Conditions d’exécution, Conditions de souscription, Conditions de rachat, Rapport exercice, Périodicité de calcul de la valeur liquidative, Libellé devise]
- Caractéristiques Commerciales [Valeur liquidative, Durée minimale conseillée, Apport des titres, Commission de souscription, Commission de rachat, Frais de gestion, Souscripteurs]
- Caractéristiques Fiscales [Fiscalité, Éligibilité, Imposition revenus, Imposition Plus-values]
Figure 14 : Schématisation d'un produit collectif de type OPCVM
3.3.2. La schématisation finale d’un bon d’options (warrant)
Nous avons procédé de même pour décrire un bon d’option sous la forme de 6 caractéristiques principales : administratives, réglementaires, financières, de fonctionnement, commerciales, fiscales (pour plus de détails sur la méthode, voir mes travaux antérieurs).
- La partie réglementaire signale la dénomination du produit, sa forme juridique, son identification et la réglementation qui entoure la conception des produits dérivés ;
- La partie administrative précise la date et le numéro d’agrément du produit, la date d’émission du produit et de la notice d’information, l’échéance du produit et sa durée de vie ;
- La partie financière concerne la description du produit dérivé, avec les techniques employées, le type et la composition du sous-jacent, l’exposition aux risques, et les souscripteurs ;
- La partie du fonctionnement du produit dérivé rappelle brièvement les conditions d’exécution et de souscription, les quotités de négociation et la date de l’exercice ;
- La partie commerciale précise la politique de gestion, les cours offert et demandé, le spread, le prix d’exercice, la valeur intrinsèque, la durée conseillée, l’apport des titres, la parité, l’effet de levier, les frais de courtage, la devise, l’élasticité, le delta, le thêta, le gamma, le vega, le rho, le gearing, le point mort, le premium et la valeur temps du produit ;
- La partie fiscale rappelle la fiscalité de ce type de produit et le mode d’imposition.
3.4. Identification des pratiques d’accès à l’information des concepteurs de produits de placement financier
Par suite, et avec l’aide des commentaires des financiers recueillis sur le terrain, nous pouvons décrire les pratiques d’accès des trois principaux acteurs (promoteur, gestionnaire et dépositaire), qui sont très liées les unes par rapport aux autres du fait de cette activité. Il est possible à l’aide du descriptif détaillé ci-dessus (le langage de description des produits financiers ou LPF), du moins partiellement, de faire apparaître dans le tableau ci-dessous, les situations de recherche et d’utilisation d’information de chaque acteur (les 10 situations d’accès à l’information décrites par Cheuk (1999)) par rapport aux zones de coopération et de coordination du projet (décrites par de Tersac et Maggi).
Les stratégies des acteurs vont donc dépendre de ces situations d’accès à l’information rencontrées sur le terrain et de ces zones de coopération et de coordination qui ne peuvent donc pas être totalement négligées.
Figure 15. : Les différents caractéristiques, les situations d’accès à l’information et les zones de coordination et de coopération dans la conception d’un produit financier
Ce tableau est censé reproduire le cheminement de pensée des acteurs (ici nous pouvons prendre le cas des dépositaires), lorsqu’ils doivent construire un produit financier. En d’autres termes, nous précisons ici les situations d’accès à l’information, que les dépositaires rencontrent dans leurs recherches d’éléments, dans les principales caractéristiques du produit.
Et nous voulons clarifier la relation entre les acteurs dans le processus de recherche. Par exemple, le dépositaire recherche l’approbation auprès des autorités, en demandant un agrément pour commercialiser le produit de placement financier. Les dépositaires se trouvent alors dans une situation de choix (pour s’assurer de l’obtention de l’agrément) et de recherche d’approbation (en cas de demande d’agrément du produit par l’administration) et aussi de situation d’attribution d’approbation.
Les zones de coopération et de coordination reposent quant à elles sur des zones d’actions délimitées par les lois, les règles, les sociétés, les pratiques, etc. Nous pouvons prendre comme exemple le cas de la périodicité de calcul de la valeur liquidative :
« Nous avons des marges de manœuvres. Si la société est au-dessous des 100 millions de francs, alors la périodicité peut être choisie. La périodicité dépend de la taille de l'actif du fonds » (dépositaire n° 3).
Il en est de même pour les produits dérivés où les pratiques d’accès à l’information des émetteurs sont très liées à l’activité de conception. Il est possible à l’aide d’une schématisation détaillée, du moins partiellement, de faire apparaître les situations de recherche et d’utilisation d’information de chaque acteur par rapport à leurs niveaux d’autonomie vis-à-vis du projet.
Figure 16 : Les principales caractéristiques du produit financier, les situations d’accès à l’information et zones de coopération et de coordination
L’activité de conception de produits collectifs ou dérivés agit donc bien sur les situations d’accès à l’information et donc modifie les pratiques et les stratégies informationnelles des professionnels. Comme nous le constatons dans ces deux exemples, le nouveau cadre théorique et méthodologique que nous venons de présenter est une réponse partielle à la description des pratiques d’accès à l’information professionnelle. Ces exemples prennent en compte davantage les aspects de gestion et de production d’information, qui sont présents dans notre modèle, ainsi que les différents dispositifs techniques collectifs et personnels, pour rendre compte des « activités et des pratiques informationnelles » des financiers. Mais nous pensons qu’il est nécessaire de réaliser de nouvelles études sur d’autres terrains pour pouvoir cerner cette problématique complexe.
4. Conclusion et perspectives
Cette recherche propose une nouvelle approche théorique et méthodologique, suite à l’évolution paradigmatique constatée dans les travaux actuels. Nous sommes en train de passer d’un paradigme « orienté usages », à celui d’un paradigme « orienté activité » lorsqu’il s’agit d’étudier des pratiques d’accès à l’information professionnelle. Ce travail souligne ainsi la nécessité de prendre en considération la spécificité de l’information professionnelle au sens large, qui dépend de l’activité des acteurs étudiés. Nous devons nous intéresser non seulement au processus d’accès à l’information (information seeking and use behaviour), mais aussi à l’ensemble des « activités informationnelles » dans lequel est placé notre acteur comme le rappelle Guyot (2001).
D’un point de vue théorique, le modèle de « l’activité informationnelle globale » doit mettre l’accent sur les informations indispensables à l’activité et au contexte professionnel. En d’autres termes comme l’a remarqué Järvelin (2003), les multiples dimensions du travail, symbolisées par les nombreuses relations existantes entre les différentes tâches de chaque activité, ainsi que les diverses dimensions documentaires absentes de la plupart des autres courants de recherche cités plus haut, doivent être prises en compte.
D’un point de vue méthodologique, ce modèle de « l’activité informationnelle globale » recommande l’utilisation de plusieurs méthodes qualitatives conjointes, plutôt de type sociocognitif, mais pas seulement, pour connaître précisément les activités informationnelles des professionnels. Il nous permet de comprendre le processus de la chaîne documentaire partant de la conception de documents, jusqu’à sa diffusion (cas des notices d’information dans le cas des bons d’option et des notices et des brochures publicitaires dans le cas de la conception de produits collectifs). L’utilisation conjointes de plusieurs méthodes qualitative de type APAI (Activité, Produit, Accès à l’Information), proposée ci-dessus doit nous permettre de mieux décrire les nécessités de cette activité et de comprendre la logique de l’acteur (on ne peut pas parler de besoin émergent, ni d’usager).
D’un point de vue pratique, ce modèle souhaite proposer une réponse partielle à la problématique de l’efficacité de l’accès à l’information professionnelle en envisageant une sélection des meilleures pratiques informationnelles pour une activité donnée. Il peut aussi permettre de réfléchir à une amélioration des systèmes d’information des organisations au niveau de la gestion électronique des documents ou des processus métiers, avec la mise en place de langages de description informatiques dédiés à ces activités et issus directement des schématisations.
En résumé, le modèle de « l’activité informationnelle globale », présenté ci-dessus, doit nous permettre de développer de meilleures représentations des pratiques d’accès à l’information pour une activité professionnelle donnée et une meilleure visibilité des « activités et pratiques informationnelles » au cœur de cette activité.
Notes
(1) Nous prions notre lecteur de nous excuser pour la traduction délicate de certaines définitions anglo-saxonnes, certaines notions comme « to search » et « to seek », qu’il est délicat de traduire en français : nous avons pris d’ailleurs le parti de traduire arbitrairement le verbe « to search » par rechercher et « to seek » par chercher.
(2) Information Behavior is the totality of human behavior in relation to sources and channels of information, including both active and passive information seeking, and information use. Thus, it includes face-to-face communication with others, as well as the passive reception of information as in, for example, watching TV advertisements, without any intention to act on the information given.(Wilson, juin 1999)
(3) Information Seeking Behavior is the purposive seeking for information as a consequence of a need to satisfy some goal. In the course of seeking, the individual may interact with manual information systems (such as a newspaper or a library), or with computer-based systems (such as the World Wide Web).(Wilson, juin 1999)
(4) Information Searching Behavior is the 'micro-level' of behavior employed by the searcher in interacting with information systems of all kinds. It consists of all the interactions with the system, whether at the level of human computer interaction (for example, use of the mouse and clicks on links) or at the intellectual level (for example, adopting a Boolean search strategy or determining the criteria for deciding which of two books [chosen] from adjacent places on a library shelf is most useful), which will also involve mental acts, such as judging the relevance of data or information retrieved.(Wilson, juin 1999)
(5) Information Use Behavior consists of the physical and mental acts involved in incorporating the information found into the person's existing knowledge base. It may involve, therefore, physical acts such as marking sections in a text to note their importance or significance, as well as mental acts that involve, for example, comparison of new information with existing knowledge. (Wilson, juin 1999)
Bibliographie
BATES, Marcia J. (2002). Towards an integrated model of information seeking and searching. In T. WILSON, M. BARRULAS (Ed.). The New Review of Information Behaviour Research. Studies of information seeking in context. Volume 3. p. 1-16.
BELKIN, Nicholas. J., VICKERY, Alina (1985). Interaction in information systems: An review of research from document retrieval to knowledge-based systems. Cambridge : University Press. 250 p.
BERNHARD, Paulette (1998). Apprendre à « maîtriser » l’information : des habiletés indispensables dans une « société du savoir ». Revue scientifique virtuelle, éducation et francophonie. Les bibliothèques à l’ère électronique dans le monde de l’éducation, [en ligne], [consulté le 12 février 2004], vol. XXVI, n°1, automne hiver 1998. 22 p. Disponible sur http://www.acelf.ca/c/revue/revuehtml/26-1/09-bernhard.html.
BROADY-PRESTON Judith and HAYWARD, Tim. 2001. « Strategy, information processing and scorecard models in the UK financial services sector ». Information Research [en ligne]. [consulté le 22 juinr 2005], vol. 7, n° 1, 17 p. Disponible sur : http://informationr.net/ir/7-1/paper122.html.
CASE, Donald O. (2002) Looking for information: a survey of research on information seeking, needs and behavior. San Diego: Academic Press. 370 p.
CHAUDIRON, Stéphane et IHADJADENE, Madjid (2002). « Quelle place pour l’usager dans l’évaluation des SRI ? ». In Recherches récentes en Sciences de l’Information, convergences et dynamiques. Actes du colloque MICS-LERASS, Toulouse : ADBS Éditions, 21-22 mars 2002. p. 211-233.
CHEUK, Wai-Yi B. (1999). The derivation of a "situational" information seeking and use process model in the workplace: employing sense-making. Paper presented at International Communication Association annual meeting, San Francisco, California, [en ligne], [consulté le 12 février 2004], 27 mai 1999. http://communication.sbs.ohio-state.edu/sense-making/meet/m99cheuk.html, accessed February 15, 2004)
CHOO, Chun W. (1998). The Knowing Organization, How organizations use information to construct meaning, create knowledge and make decision. New York : Oxford University Press. 298 p.
COTE, Christian (1997). Conception de systèmes d’information utilisés dans le cours d’une activité: méthodologie et outils de formalisation pour l’identification des opportunités informationnelles. In ISKO, Lille. 10 p.
DERVIN, Brenda (1999). On studying information seeking methodologically: the implications of connecting metatheory to method. Information Processing and Management, vol. 35, p. 727-750.
DERVIN, Brenda (2003). A Sense-Making Methodology primer: What is methodological about Sense-Making. Paper presented at the meeting of the International Communication Association, San Diego, CA.
DESSINGES, Catherine. (2002). La communication des ONG : l’exemple de Handicap International à la télévision, une approche interactionniste des actes du discours. Lyon. 4 vol., 405 p. Th. Doct. : Sci. Info.-Com. : Lyon : 2002.
DESCHAMPS, Jacqueline. (2005). Pourquoi une revue suisse de science de l’information ? Revue électronique suisse de science de l'information (RESSI), [en ligne], [consulté le 12 février 2004], vol. 1. janvier 2005. p. 2-17. http://campus.hesge.ch/ressi/Numero_1_janvier2005/articles/HTML/RESSI_00...
ELLIS, David et HAUGAN, Merete (1997). Modelling the information seeking pattern of engineers and research scientists in an industrial environnement. Journal of Documentation. September 1997, p. 384-403
ELLIS, David, COX, Deborah & HALL Katherine (1993). A comparison of the information seeking patterns of researchers in the physical and social sciences, Journal of Documentation, 49(4), pp. 356-369.
FIDEL, Raya et PEJTERSEN, Annelise M. (2004). From Information Behavior Research to the Design of Information System: the cognitive Work Analysis Framework. Information seeking in context - ISIC 2004. Dublin : September 2004. p. 2-20.
GUYOT, Brigitte (2001). Une activité méconnue : l'activité d'information. Communication au colloque ICUST (France Telecom recherche), « penser les usages », Paris, ENST, 12-14 juin, 12 p.
GOFFMAN, Erving (1991). Les cadres de l’expérience (Frame Analysis). Paris: Éditions de Minuit. 573 p.
GOFFMAN, Erving. (2001). La mise en scène de la vie quotidienne, Lonrai : Les éditions de Minuit, 2001. 241 p.
HENNERON, Gérard, METZGER, Jean-Paul, POLITY Yolla (1997). Information et activité professionnelle, Rapport Intermédiaire, en sciences sociales et humaines, Ersico, Université Lyon 3. 12 p.
HJØRLAND, Birger (1997). Information seeking and Subject Representation. An activity-Theoretical Approach to Information Science. Wesport : Greenwood, 1997. 213 p.
HUTCHINS, Edwin (2000). Distributed Cognition : state of art and perspectives. in Médiation Technique et Cognition : cognition située, individuelle et collective, Bonas : ArCo, 10-21 juillet 2000. p. 1-32.
INGWERSEN, Peter (1992). Information Retrieval Interaction. Londres :Taylor Graham, 1992. 246 p.
JÄRVELIN, Kalervo and WILSON, Tom D. (2003). On conceptual models for information seeking and retrieval research. Information Research, [en ligne], [consulté le 12 février 2004], 9(1) paper 163. http://InformationR.net/ir/9-1/paper163.html, accessed February 12, 2004.
KUHLTHAU, Carol C. (1996). The Concept of a Zone of intervention for identifying the role of intermediaries in the Information Search Process. Annual Conference Proceedings of American Society for Information science, ASIS 1996, [en ligne], [consulté le 12 février 2004], 6 p. http://www.asis.org/annual-96/ElectronicProceedings/kuhlthau.html
KUHLTHAU, Carol C. (1997). The influence of uncertainty on the information seeking behavior of a securities analyst. In: P. Vakkari, R. Savolainen, and B. Dervin, eds., Information seeking in context: proceedings of an International Conference on Research in Information Needs, Seeking and Use in different Contexts, Finland (Tampere), 14-16 août 1996. London: Taylor Graham, 1997, 467 p.
KUHLTHAU Carol C. (2001). The Information Search Process (ISP): A Search for meaning rather than answers. PowerPoint Presentation for Rutgers University [en ligne]. 9 p.
LE COADIC, Yves (1998). Le besoin d’information, Formulation, Négociation, Diagnostic. La Ferté-Macé : ADBS Éditions, 4e trimestre 1998, 191 p. (Série Etudes et techniques)
MARCHIONINI, Gary (1995). Information seeking in electronic environments. New York : Cambridge University Press, 1995. 224 p.
MIWA, Makiko (2003). Situatedness in users’ evaluation of information and information services. In T. WILSON, M. BARRULAS (Ed.). The New Review of Information Behaviour Research. Studies of information seeking in context. Volume 3. pp. 207-224.
MORIZIO, Claude (2002). La recherche d’information. Paris, ADBS. Nathan Université. Coll. 128, information documentation, n°267. 126 p. ISBN 2-09-191244-1
PEJTERSEN, Annelise, FIDEL Raya (1998). A framework for work centered. Evaluation and design: A case study of IR on the web. Working Paper, MIRA, Grenoble, 74 p.
POLITY, Yolla (2004). Du paradigme orienté-usager au paradigme orienté-acteur. In Communication au GREMI (Groupe de Réflexion sur l'Enseignement des Méthodologies de l'Information), Liste des publications, [en ligne], [consulté le 12 février 2004], publié le 22 mars 2001. 19 transparents. http://www.iut2.upmf-grenoble.fr/RI3/gremi/sld001.htm
SARACEVIC, Tefko (1996). Modeling interaction in information retrieval (IR) : a review and proposal. In HARDIN, S., ed. Proceedings of the 59th Annual Meeting of American Society for Information Science. Baltimore : Medford, N.J., ASIS, 1996. p. 3-9.
SARMÉJEANNE, Vincent (2001). La recherche d’information pour l’enseignement, sous la direction du Professeur Jean-Paul METZGER. Lyon. 294 p. Th. Doct. : Sci. Info.-com. : Lyon 3.
TENOPIR, Carol & KING, W. Donald (2004). Communication Patterns of engineers. IEEE Press, Wiley-Interscience. Hoboken : A John Wiley & sons, Inc. Publication, N.J., 266 p.
WILSON, Tom D. (1999). Models in information behaviour research, Journal of Documentation, 55(3), p.249-269.
WILSON, Tom D. (2000). Recent trend in user studies: action research and qualitative methods. Information Research. [en ligne], [consulté le 12 février 2004], vol. 5, n°3, avril 2000, 16 p. http://informationr.net/ir/5-3/paper76.html
VAN ANDEL Pek (2005). Sérendipité, ou de l'art de faire des trouvailles. La Revue mensuelle, Robotique, vie artificielle, réalité virtuelle. [en ligne], Traduit et adapté du hollandais par Danièle Bourcier. [consulté le 4/04/2005], dossier n° 61. http://www.admiroutes.asso.fr/larevue/2005/61/serendipite.htm
Pourquoi une revue suisse de science de l'information ?
Ressi — 22 janvier 2005
Jacqueline Deschamps, Haute Ecole de Gestion, Genève
Résumé
La création d’une revue scientifique constitue à la fois un défi éditorial et académique. La Revue électronique suisse de science de l’information (RESSI) veut faire mieux connaître la science de l’information, discipline qui mérite une meilleure visibilité. La promotion de cette discipline bénéficie d’une situation institutionnelle particulière liée à la création des Hautes Ecoles Spécialisées (HES). La création des HES élargit et complète le domaine des hautes écoles suisses et donne une impulsion à la recherche appliquée. Nous nous proposons de montrer que la création de RESSI s’inscrit dans un contexte scientifique spécifique et dans un développement social et historique.
La création d’une revue scientifique est un défi à plusieurs niveaux. Un défi éditorial, étant donné les multiples difficultés auxquelles se heurte généralement ce genre d’entreprise. Un défi académique aussi, compte tenu de la concurrence qui règne dans ce domaine entre les instances institutionnelles de production et de diffusion de la connaissance scientifique (universités ou sociétés scientifiques) dont les revues constituent l’une des expressions les plus importantes. Mais si la publication d’une nouvelle revue scientifique constitue une véritable gageure, c’est surtout parce que, en dehors de la contribution d’un nouvel espace de publication des progrès de la recherche et du travail théorique de la discipline concernée, une telle revue doit, par l’originalité des approches, des analyses et des traitements de son objet d’étude, se distinguer des autres revues avec lesquelles elle entre en compétition.
Bien sûr, nous n’avons pas la naïveté de croire que la naissance d’une nouvelle revue scientifique en Suisse suffise par elle-même à susciter une révolution épistémologique ni même celle de croire que le comité de lecture peut espérer la sélection et la publication d’articles inaugurant une nouvelle façon de penser la discipline. Nous avons bien plus modestement le désir de créer un forum pour favoriser le dialogue entre les divers acteurs, d’exprimer des sensibilités, des interrogations, des réflexions, des doutes, quelle que soit l’insertion professionnelle des auteurs, au-delà de la traditionnelle distinction entre bibliothèques, archives ou documentation mais sous la bannière de la science de l’information.
Quant à savoir dans quelle mesure une revue scientifique relève le défi, cela dépend naturellement en premier lieu des auteurs qui lui apportent sa matière première, laquelle dépend elle-même des spécialistes qui acceptent d’assumer le rôle aussi déterminant que difficile d’experts, c’est-à-dire de décider si un travail réunit ou non les conditions définies par la communauté scientifique et expressément requises par le comité de rédaction afin qu’il puisse être publié dans la revue. Nous avons d’un côté, la responsabilité de la qualification scientifique et la volonté politique des responsables de la revue et de l’autre, le rôle plus occulte mais sûrement catalyseur, de l’institution qui héberge la revue et le contexte sociopolitique dans lequel elle s’inscrit.
S’agissant de l’implication de la portée scientifique du comité de rédaction qui puise essentiellement son autorité dans la reconnaissance dont jouissent les experts de la revue au sein de la communauté scientifique, nous pouvons supposer qu’elle est à peu près la même que dans d’autres disciplines. Là où les choses diffèrent sensiblement c’est dans le rôle que joue moins ouvertement d’une part l’institution à qui revient la diffusion de la nouvelle revue et d’autre part les conditions socioculturelles dans lesquelles cette édition est entreprise.
Nous pouvons dans les grandes lignes opérer une distinction entre les revues qui constituent les organes éditoriaux officiels de différentes associations scientifiques nationales et les revues qui sont publiées par des sociétés scientifiques de composition et/ou de vocation internationale ou multinationale. L’élément déterminant ici réside dans le fait que RESSI est l’émanation d’une communauté scientifique qui ne s’est délibérément pas constituée en association (une de plus !) mais ressemblerait plutôt à un « collège invisible » d’enseignants et d’acteurs de terrain, rassemblés autour des problématiques de la science de l’information. Il y a dans la création de RESSI un désir de faire reconnaître une discipline qui mérite une meilleure visibilité. Les engagements de la vie professionnelle nous ont amenée à rencontrer des collègues, à partager leurs préoccupations et à nous rendre compte que dans le monde francophone, nous avons tous besoin de nous ancrer dans notre discipline, de la légitimer, de la faire évoluer.
La science de l’information est une discipline académique pour certains, un terrain d’application ou un champ interdisciplinaire pour d’autres, elle est souvent associée à la communication avec qui elle entretient des rapports qui ne sont pas toujours aussi limpides qu’on veut bien le croire. C’est aussi intentionnellement que nous parlons de Science de l’information en optant pour science au singulier parce qu’en Suisse, à la différence de la France, nous n’avons pas jumelé science de l’information et communication en « Info-com ». Tout au plus pourrions-nous parler d’info-doc s’il fallait s’allier à un autre champ alors que la science de l’information est en soi une entité complète qui inclue bibliothéconomie, archivistique et documentation. L’utilisation même des expressions « science de l’information » ou « sciences de l’information » n’a pas été établie une fois pour toutes. Pour Le Coadic, c’est la science de l’information... mais par exemple pour Benoît, ce sont les sciences de l’information. « Il semble que l’extension illimitée des phénomènes associables à ce mot décourage a priori toute synthèse, et disqualifie l’idée même d’une discipline. Aussi parle-t-on des sciences de l’information et de la communication, les SIC, mais cet insurmontable pluriel a de quoi rebuter les esprits rigoureux. »(1). Ou encore, pour Estivals (2) « Le pluriel de sciences de l’information et de la communication couvre l’imprécision. L’argument qui consiste à dire que nos domaines ne sont pas assez avancés pour qu’on puisse les délimiter est une pirouette qui dissimule mal notre ignorance. Est-il besoin de dire que le risque est grand, dans le milieu scientifique de n’être pas pris au sérieux ? »
Discipline dont on dit qu’elle se cherche tout en ayant une légitime existence, en France, elle fait partie du paysage universitaire où elle est enseignée au premier, deuxième et troisième cycle et confère tous les grades universitaires. En Suisse, elle n’apparaît officiellement dans aucun cursus universitaire et c’est cette situation qui nous interpelle.
Son existence est incontestable et pourtant on remarque un besoin constant de se positionner scientifiquement comme s’il fallait prouver qu’il s’agit bien d’un domaine scientifique. « La science se fait, elle agit, elle produit ; elle ne s’observe pas elle-même comme science en train de se faire. S’il doit exister « une science de l’information », va-t-il donc lui être demandé de faire justement tout cela, tout ce que le reste de la science ne fait pas, sans davantage s’occuper de tout ce « reste » que la science sait elle-même si bien faire ? (3) La science de l’information aurait-elle des raisons d’être considérée comme un terrain d’application et non comme un champ scientifique autonome ? L’ambiguïté est aussi entretenue par ses propres acteurs puisqu’on voit déjà qu’il y a un désaccord dans la terminologie fondamentale. Dès lors, nous savons bien que notre tâche n’est pas facile et risque de nous entraîner dans des débats délicats mais c’est un pari que nous prenons.
On peut se poser la question du lien des bibliothécaires avec la science de l’information. Les bibliothèques sont peu souvent l’objet de recherche universitaire. Pourtant, la recherche qui exige production et investissement intellectuel est susceptible de donner une légitimité dont les effets structurent l’identité professionnelle. On peut aussi penser que la visibilité des bibliothèques par la recherche - fondamentale ou appliquée - représenterait aussi un atout significatif, tant pour les bibliothécaires que les instances institutionnelles.
On peut toujours nous rétorquer que le professionnel de l’information aux prises avec ses difficultés quotidiennes ne ressent pas la nécessité de s’intéresser à une discipline, quelle qu’elle soit. Ce sont avant tout des professionnels qui ont des besoins bien concrets et les réponses à leurs préoccupations quotidiennes se trouvent la plupart du temps dans des solutions pragmatiques. Devrions-nous dire, de concert avec Calenge à propos de la documentation que nous avons-là une « science pratique » à organiser autour d’interrogations concrètes ? Il est vrai que les connaissances qui relèvent des savoirs et celles qui relèvent des pratiques n’ont pas toujours bien été définies et peut-être faut-il parler de discipline à forte dimension pratique ? Parlons plutôt de théorisation, de formalisation ou encore de modélisation ; les lois sont une chose trop sérieuse pour affirmer que la science de l’information possède des lois, tout au plus peut-on parler de modèle.
Notre désir de promouvoir la discipline vient également d’une situation institutionnelle particulière liée à un projet de grande envergure en Suisse : la création des Hautes Ecoles Spécialisées (HES). La création des HES marque un tournant pour les spécialistes de l’information dans toute la Suisse, en modifiant leur système de formation, en leur conférant une reconnaissance fédérale et un titre protégé.
Les HES, dénommées aussi University of Applied Sciences, constituent désormais un élément important du système éducatif suisse. Elles se veulent en phase avec les standards internationaux et il est donc tout naturel pour elles de prôner la mise en œuvre de la « Déclaration de Bologne » et donc d’entamer toute une série de réformes. La Conférence suisse des HES (CSHES) propose ainsi un modèle d’année académique et de formation modulaire. Les HES constituent un véritable laboratoire d’études aussi bien sur le plan de la modification du système de formation professionnelle (et sa promotion dans l’enseignement de niveau tertiaire) que sur le plan de la revalorisation des formations qui y sont dispensées.
La réforme de l’éducation tertiaire est intervenue en Suisse plus tardivement que dans les pays de la Communauté européenne. Paradoxalement, la bonne qualité de la recherche universitaire en sciences et en ingénierie et la qualité de la formation professionnelle qui permettait à la majorité des jeunes adultes en formation professionnelle d’entrer sur le marché du travail, n’ont pas incité à la mise en route de changements importants. Sous l’augmentation de la demande individuelle et sociale d’éducation tertiaire, alimentée par les compétences exigées par le marché du travail, la vigueur croissante du savoir comme force motrice de l’activité et des performances économiques, des changements touchant l’ampleur, la nature et la valeur de la recherche dans son acception large et d’une dynamique « européenne », l’éducation tertiaire a fait alors l’objet de réformes importantes. La création des HES en Suisse, élément de nature conjoncturel, correspond aussi à un mouvement d’harmonisation des formations universitaires au niveau européen.
La transformation des écoles supérieures en Hautes écoles spécialisées vise à élargir l’offre de formations universitaires en Suisse en y incluant des filières de formation du niveau des hautes écoles, de caractère à la fois scientifique et pratique et à renforcer l’euro compatibilité des diplômes. L’un des objectifs qui a présidé à la naissance des HES a été aussi d’élargir la fonction des écoles qui jusque-là était limitée à l’enseignement en leur confiant des tâches de recherche appliquée, de développement et de prestations de services à l’intention de l’économie (transfert de connaissances et de technologies). Si la coopération avec les milieux économiques ou institutionnels existait déjà, il en allait tout autrement pour la recherche.
La création des HES va élargir et compléter le domaine des hautes écoles. Les enseignants de ces écoles sont donc appelés à exercer des activités de recherche appliquée et de développement. La pratique d’activités de recherche et de développement est un moyen de ne pas prendre de retard sur les progrès de la science et sur l’évolution de la pratique professionnelle.
Notre propos n’est pas d’écrire l’histoire de la science de l’information ; des auteurs l’ont fort bien fait avant nous et leurs écrits ont d’ailleurs nourri notre réflexion aussi nous ne faisons que mettre en lumière quelques aspects qui nous semblent importants. Nous voulons montrer que la création de notre revue s’inscrit dans un contexte scientifique spécifique et dans un développement social et historique.
Lorsqu’on parle de science de l’information la première question que l’on pose généralement est : la science de l’information est-elle une discipline scientifique ? Et ceux qui posent cette question tentent bien souvent de vous prouver que non.
Généralement les disciplines scientifiques se distinguent par un vocabulaire spécifique, savant, hermétique au profane. La science de l’information utilise des vocables simples, appartenant au langage ordinaire, et compréhensibles par tous tels, information, livre, document, bibliothèque, film, photographie, lecteur, etc. Existe t-il un véritable vocabulaire scientifique ? Y a-t-il un vocabulaire théorique qui serait propre à la discipline ? Nous avons bien conscience de soulever des questions récurrentes qui ont déjà marqué les premières années d’existence de la discipline mais qui restent prégnantes aujourd’hui.
Une discipline désigne une matière enseignée, une branche de la connaissance. Dans une définition plus complète, on trouve « une discipline scientifique est une branche du savoir qui étudie une série de situations en ayant pris une perspective particulière, soutenue par des théories, des présuppositions, des réseaux scientifiques, des institutions, des contrôles sociaux, des appareils de mesure, des technologies, des publications, des diplômes universitaires, etc. » (4). Selon cette définition, oui la science de l’information est une discipline scientifique.
On peut, à juste titre s’étonner de voir que la science de l’information a été élevée au rang de « science » seulement quelques décennies après sa création. Prenant comme point de départ cette affirmation de Bourdieu (5), « la science n’a d’autre fondement que la croyance collective dans ses fondements que produit et suppose le fonctionnement même du champ scientifique », la science de l’information vient alors s’intégrer dans la famille des sciences et spécifiquement des sciences humaines et sociales.
Le critère de validité généralement retenu est celui de l’existence sociale d’une discipline reconnue comme science par la communauté de ceux qui la pratiquent, par les institutions académiques et par la société. En dehors des moments critiques de rupture épistémologique ou paradigmatique, qui engendrent de nouveaux équilibres sociaux autour de nouvelles définitions de la science, l’activité scientifique routinière s’identifie à l’ensemble des pratiques d’une communauté unie par des consensus théoriques et méthodologiques et par une vision commune du monde comme nous l’apprend Kuhn.
Dans le cas de la science de l’information, les consensus théoriques et méthodologiques ne sont pas complètement stabilisés, ce qui fait généralement dire que la science de l’information est une science en constitution. Kuhn insiste sur le caractère social du paradigme : il est propre à une communauté, c’est ce que tous les chercheurs d’un même domaine ont en commun et ce que l’on enseigne aux étudiants. Pour qu’il y ait science, il faut donc un objet et des méthodes scientifiques, des techniques, des services, etc. C’est un ensemble de phénomènes.
Qu’est-ce que la science de l’information ? Les définitions lexicales permettent de donner une description et de délimiter des frontières aux sujets couverts par le champ, mais elles ne peuvent en donner une compréhension plus approfondie. « Information science is that discipline that investigates the properties and behavior of information, the forces that govern the flow and use of information, and the technique, both manual and mechanical, of processing information for optimal storage, retrieval and dissemination» (6).
La science de l’information est un champ de pratique professionnelle et de recherche scientifique traitant du problème de la communication des enregistrements du savoir parmi les humains, dans le contexte du besoin social, organisationnel et individuel pour l’usage de l’information. Les débats sur la définition « propre » de la science de l’information peuvent paraître stériles. La science de l’information, comme science, et comme savoir théorique professionnel, étant finalement définie par les problèmes qu’elle soulève et les méthodes utilisées pour les résoudre.
La science de l’information est un objet qui intéresse nombre d’auteurs, elle est l’objet de rencontres scientifiques et pourtant elle ne semble pas rassembler la communauté scientifique dans un même consensus mais se maintient dans une nébuleuse aux contours encore flous. Il est un consensus sur lequel la communauté des chercheurs s’entend, c’est la classification dans la catégorie sciences humaines et sociales. Le caractère de science sociale avait déjà été avancé par Cossette à propos de la bibliothéconomie, mais en la désignant comme une science sociale dont l’objet est plus restreint que les autres sciences sociales et limitée à un milieu particulier, la bibliothèque. Elle présente un aspect particulier avec un aspect pratique plus développé, elle est à la fois science et art.
D’après Bourdieu (7) « le champ des sciences sociales est dans une situation très différente des autres champs scientifiques ; du fait qu’il a pour objet le monde social et qu’il prétend en produire une représentation scientifique, chacun des spécialistes y est en concurrence non seulement avec les autres savants, mais aussi avec les professionnels de la production symbolique (écrivains, hommes politiques, journalistes) et plus largement avec tous les agents sociaux qui, avec des forces symboliques et des succès très inégaux, travaillent à imposer leur vision du monde social ».
Le flou relatif à propos de la dénomination de la discipline, que nous avons mentionné au préalable, atteste l’existence de conflits sous-jacents à propos des frontières qui séparent la science de l’information des disciplines traditionnelles. Il se traduit également dans les diverses conceptions concernant l’objet de la science de l’information.
L’objet d’étude de la science de l’information est encore à l’heure actuelle matière à débat et loin d’être unanimement partagé au sein de la communauté scientifique, divisée qu’elle est entre plusieurs approches théoriques de l’univers informationnel et donc de l’objet même de la discipline. A cette instabilité correspond une certaine fragilité de ses fondements intellectuels. La science de l’information s’intéresse avant tout à l’élaboration sociale et au partage du savoir. Tout type de savoir étant concerné, qu’il s’agisse de savoir pratique, technique, scientifique, encyclopédique. Quant à l’élaboration et au partage, ils se réalisent dans des contextes sociaux et culturels divers que ce soit une communauté scientifique, professionnelle, culturelle, nationale, internationale ou une organisation humaine telle une entreprise, une université, etc. Pour Le Coadic (8), la science de l’information a pour objet « l’étude des propriétés générales de l’information (nature, genèse, effets) c’est-à-dire plus précisément l’analyse des processus de construction, de communication et d’usage de l’information et la conception des produits et des systèmes qui permettent sa construction, sa communication, son stockage et son usage ». C’est la vision défendue par Taylor, Goffman, Zunde qui la définissent comme une science empirique qui cherche à établir des principes généraux afin d’expliquer, de quantifier et de prédire des phénomènes. Selon l’acception nord-américaine défendue par Brookes ou Shera, la science de l’information a pour objet scientifique l’information à travers le message, sa forme, ses codes. Pour Saracevic ou Salton, l’objet est limité à un type d’information, l’information scientifique et technique. Fondin (9) définit l’objet de la science de l’information comme « le système d’échange entre différents acteurs autour d’une recherche d’information dont on veut comprendre le fonctionnement et surtout le rôle qu’y joue chaque acteur, pour éventuellement intervenir dessus ». Varet la définit comme « une discipline rigoureuse » et, pour cet auteur, c’est en édifiant une science de l’information que nous saurons un jour ce qu’est l’information pas avant, car si l’objet était connu avant que d’être étudié, cela voudrait dire que nous n’avons aucun besoin d’en instaurer la connaissance.
L’objet scientifique de la science de l’information nous paraît bien être la compréhension d’un processus d’échange, de partage qui relève de la préoccupation de la récupération de l’information (connaissance communiquée), quelle qu’elle soit (technique, culturelle, etc.), quel que soit son support (physique ou électronique), son cadre (individuel ou collectif), la raison (gratuit ou utilitaire) et dont les éléments essentiels sont en priorité les hommes, avant les techniques. La science de l’information s’intéresse à une activité humaine finalisée, elle est donc une discipline d’ordre communicationnel et elle appartient bien aux sciences humaines et sociales.
La science de l’information présente trois caractéristiques générales qui marquent son évolution. On peut aussi les voir comme des problématiques que traite, ou en tout cas que devrait traiter, la science de l’information.
- La science de l’information est de nature interdisciplinaire : cependant les relations entre les diverses disciplines sont changeantes et ne sont pas figées.
- La science de l’information est inexorablement liée à la technologie de l’information. La technologie contribue grandement à l’évolution de la science de l’information tout comme à la société de l’information dans son ensemble.
- La science de l’information est, avec d’autres champs, un acteur de l’évolution de la société de l’information. La science de l’information a une dimension sociale et humaine forte, au-dessus et au-delà de la technologie.
Vickery et Vickery et Saracevic ont souligné que la science de l’information se structure en deux champs relativement autonomes, eux-mêmes composés de plusieurs sous-champs. Lorsqu’en 1998, Buckland célèbre le cinquantième anniversaire du Journal of the American Society of Information Science, il évoque les deux traditions qui selon lui existent dans le champ anglo-saxon de la science de l’information : les approches fondées sur les documents, les enregistrements signifiants et celles fondées sur l’utilisation de résultats de techniques formelles (techniques ou mathématiques). Nous ne possédons pas d’étude d’envergure concernant les auteurs francophones et leurs domaines de recherche, mais nous distinguons également deux courants de recherche, l’un rattaché aux aspects techniques, à la conception de systèmes et l’autre tourné vers les aspects humains, les pratiques socioculturelles. En France, l’appartenance au domaine de l’information ou de la communication est toujours polémique, peut-être à cause du rapprochement de la science de l’information et de la communication dans une même section universitaire ?
L’autonomie du champ est un autre élément fondamental, mais dans le cas d’une science humaine en constitution, celle-ci ne peut être que faible. Autant l’élaboration conceptuelle, que la légitimation, doit s’opérer en se tournant vers l’extérieur du champ disciplinaire, en direction d’autres sciences. Selon nous, cela ne dévalorise en rien ce champ de savoir, l’une de ses forces consistant justement à savoir se tourner avec discernement vers les champs extérieurs.
Le terme de « information science » fut employé dès 1960 et remplaça progressivement le terme de « documentation ». Buckland et Liu le définissent comme relevant à la fois de la sphère d’application spécialisée (bibliothèques, archives, techniques documentaires, etc.) et d’un univers de recherche.
Pourtant cet univers de recherche ne semble pas si facile à circonscrire. « Nos études sont tiraillées entre la monographie, voire la microscopie des phénomènes et une vision plus contextuelle et transversale ; entre l’instantané, ou la fascination pour la nouveauté technique, et la longue durée de l’histoire ; entre la description empirique et l’appel à des concepts et à des paradigmes, seuls capables de favoriser le dialogue étendu et transdisciplinaire que nous appelons de nos vœux » (10).
Influencée par la théorie de Shannon, la problématique classique des recherches en science de l’information est selon Fondin celle du codage et du décodage de « l’information – contenu » et de sa bonne transmission. Il s’ensuit soit une préoccupation orientée vers le « document – message » souvent d’ailleurs assimilée au lieu de conservation, soit une « approche – objet » vers le système technique qui en assure le traitement et la transmission, soit une « approche – système ». Les professionnels ont encore une autre expression pour exprimer le changement de logique de fonctionnement, ils parlent de « logique de stock vers une logique de flux », slogan à connotation économique. Dans le domaine organisationnel, les chercheurs ont un intérêt commun pour les systèmes d’information mais, informaticiens et spécialistes de l’information sont également intéressés par l’interaction homme - ordinateur. En même temps qu’ils élargissent le contexte des activités d’information, les spécialistes de l’information examinent de nouveau la nature de l’information qu’ils traitent.
En faisant remonter les origines de la science de l’information au travail des documentalistes, dans la première moitié du vingtième siècle, on met une forte emphase sur le texte comme forme de base de l’information. Aujourd’hui, il est admis que l’on doit considérer d’autres représentations de l’information, comme égales aux phrases verbales. Cet élargissement du contexte dans lequel les spécialistes de l’information placent leur travail est naturellement lié à l’extension d’activités. Il serait bon, de ce point de vue, de comparer les sujets couverts à l’heure actuelle, dans les revues de science de l’information avec les sujets traités auparavant. Ceci donne une autre raison de penser qu’il est probablement peu profitable d’essayer de tracer une frontière autour de la science de l’information : ses limites changent constamment.
Le problème de la méthodologie en science de l’information est un domaine encore peu exploité. Du fait que le champ d’étude est vaste, la science de l’information embrasse différentes méthodologies. Quand on les examine, on voit qu’elles couvrent quelques techniques aisément reconnaissables en sciences sociales.
Dans le processus de cognition, l’homme utilise des règles afin de comprendre la réalité, de trouver des solutions à des tâches que la vie lui impose. Ces règles universalisent les résultats de la pratique et de la cognition. Dans la science, par exemple, ce sont les moyens d’accès à de nouvelles connaissances ou encore, en économie c’est un ensemble de mesures qui visent à atteindre les objectifs de la production. Cet ensemble de règles qui s’appuie sur l’expérience de la vie ou les connaissances scientifiques porte le nom de méthode. La méthode est donc constituée par l’ensemble des principes, des procédés d’étude théorique et d’action pratique qui permet d’atteindre les objectifs fixés et de résoudre les tâches voulues. Une méthode est déterminée par la nature des phénomènes ou les objets auxquels elle s’applique mais elle a ceci de particulier qu’elle sert à expliquer tous les domaines de la nature, de la société, de la pensée, c’est-à-dire des problèmes de caractère universel.
L’appartenance aux sciences humaines et sociales incite à classer la science de l’information dans la catégorie « sciences molles » par opposition aux « sciences dures ». Or, la distinction n’est pas si évidente. « La présence des sciences de l’information dans la « base » Pascal de l’Institut de l’information scientifique et technique (INIST) jusqu’à la fin des années 1990 n’est pas non plus étrangère à la situation » (11). De même la science de l’information figure dans la base de données INSPEC, plus spécifiquement dédiée aux sciences de l’ingénieur et plus proche des sciences dures.
Dans quelle mesure peut-on dire qu’un sujet est considéré « hard » ou « soft » ? Hard signifierait quantitatif et rigoureux tandis que soft signifierait plutôt qualitatif et plus approximatif ? Pour un sujet comme la science de l’information, qui possède à la fois des aspects « durs » et des aspects « mous », ceci pose une question majeure et justifie peut-être le fait qu’il n’y ait pas de consensus autour d’un paradigme méthodologique standard ?
Sur une cartographie virtuelle de la discipline, certains pics sont fondés sur des méthodologies dures (analyses bibliométriques par exemple), et d’autres sur des méthodologies molles (études d’usagers par exemple), dans quelle mesure peut-on développer le terrain intermédiaire ? Les questions de base qui intéressent la science de l’information peuvent, dans certains cas, recourir à un mélange d’approches dures et molles pour une résolution adéquate. Par exemple, la recherche documentaire a deux composants – comment les usagers décident de ce qu’ils veulent comme information et comment, une fois cette décision prise, décider de l’obtention de l’information. En termes méthodologiques, le premier est l’issue « molle » et le second la « dure ». Pour résoudre la plupart des problèmes en science de l’information, il est parfois nécessaire d’avoir recours à deux types de méthodologies mais selon nous, c’est plus une force qu’une faiblesse pour la discipline. La science de l’information, s’est appliquée depuis une dizaine d’années au moins, à tirer parti des possibilités d’améliorer les analyses quantitatives et qualitatives concernant les relations dynamiques qui unissent des collectifs d’objets au sein de diverses communautés et leurs modes de représentations graphiques (analyses des communautés, cartographies de recherches, etc.) dans un ensemble de recherches formalisées dans la scientométrie. Des évolutions sont aussi perceptibles du côté de l’ingénierie documentaire, renforcées par l’apparition des mémoires numériques portées par Internet. L’importance grandissante des méthodes d’analyses statistiques et la nécessité de décrire les phénomènes d’émergence de formes stables et instables au cœur de corpus hétérogènes ont renforcé l’usage de modèles comme les graphes conceptuels par exemple. Les pratiques, les comportements et les usages se développent aussi en interaction directe avec l’environnement.
Les chercheurs ont développé leurs propres approches théoriques de façon indépendante. Par exemple, les débats sur la théorie en bibliométrie n’ont pas grand-chose en commun avec les systèmes d’information. Ceci signifie-t-il que la base théorique de la science de l’information comprend essentiellement un ensemble de théories sans rapport entre elles, qui sont simplement sélectionnées pour leur application au sujet en considération ? Tout au long de la variété des théories centrales qui traduisent certainement un besoin, il y a de la place pour une théorie « surplombante » qui essaie de rassembler les différents composants de la science de l’information. Dans la mesure où les composants de base du monde moderne de l’information sont des êtres humains et des machines, on peut s’attendre à ce qu’une métathéorie les relie entre eux.
La science de l’information est presque invariablement vue comme appartenant à la catégorie « appliquée ». Ceci est vrai en termes de «pratique de recherche», mais soulève le rôle de la théorie dans la science de l’information. La plupart des sujets appliqués tendent à prendre leurs théories dans des sources diverses. Les pionniers de la science de l’information ont vu ceci comme une menace importante pour leur champ nouvellement établi. Ils pensaient qu’une base théorique agréée était nécessaire pour que le sujet développe une voie consistante et compréhensible. D’un côté, ils craignaient que la science de l’information ne devienne une étiquette pour une collection de compétences pratiques, sans cohérence théorique sous-jacente. D’un autre côté, ils sentaient qu’une telle base théorique serait impossible à formuler à moins que les activités d’information ne soient étudiées et discutées avec leurs propres termes, non avec les termes de leur possible application.
Dans les pays francophones, les domaines scientifiques et technologiques sont séparés et l’on retrouve cette séparation entre « recherche fondamentale » et « recherche appliquée ». Cette séparation se retrouve en science de l’information où la recherche est plus appliquée (c’est-à-dire visant à améliorer) que théorique (visant à comprendre), et que les chercheurs sont en fait plus ingénieurs que chercheurs. On comprend aussi qu’il y a là sujet de tensions entre les chercheurs, comme le fait remarquer Metzger (11) : « On observe des oppositions, des rivalités, parfois exacerbées … et la communauté de ces chercheurs… est tiraillée, sinon écartelée, entre plusieurs tendances… et les chercheurs qui se réclament de l’une ou l’autre ?de ces approches? d’entre elles inclinent à adopter les cadres théoriques et les méthodes des secteurs scientifiques qui leur paraissent proches et dont, souvent ils proviennent ».
La question de la méthodologie nous renvoie à la question des différences entre les disciplines, les sciences dites « dures » arguant qu’il existe une « méthode scientifique » unique et générale. Or, il existe des différences profondes entre les disciplines, portant sur la méthodologie scientifique. On s’accorde pour reconnaître que les sciences humaines sont moins avancées que les sciences de la nature et, effectivement, il est vrai que certains corps de connaissances ne sont pas acceptés par tous les chercheurs d’une discipline comme c’est le cas dans des sciences « dures ». Mais, peut-on dire que cette absence de consensus est réellement liée à un développement insuffisant ?
Pour savoir où va la science de l’information, il est nécessaire de regarder son histoire pour déterminer les courants qui se dessinent. Depuis quelques années, bibliothécaires et documentalistes se penchent sur leur histoire (Histoire des bibliothèques, Histoire de la documentation, Histoire de l’information scientifique et technique etc.). La base scientifique de la discipline constitue un thème récurrent, parmi les enseignants et les chercheurs. Bien que les problèmes relatifs à l’information et à son maniement aient toujours existé, la science de l’information est essentiellement une création de la seconde moitié du vingtième siècle. Le terme « information scientist » apparaît dans les années 50 et décrit un scientifique qui est un professionnel de l’information. En 1955, Farradane invente le terme « science de l’information » impliquant qu’il représente une discipline académique plutôt qu’une activité professionnelle. L’ « information scientist » est décrit comme étant proactif en cherchant, numérisant la littérature et présentant les résultats à ses clients. Il est aussi caractérisé comme ajoutant de la valeur à son travail en évaluant la littérature qu’il a cherché, ignorant le matériel de mauvaise qualité et attirant l’attention sur certaines références clés. Dans les années 50, le mot scientifique a une image attirante en Grande-Bretagne en étant associé aux technologies de pointe ; les « information scientists » sont impliqués dans les renseignements militaires, dans la recherche médicale ou encore la production d’électricité à bas prix ! On trouve aussi dans l’histoire de la science de l’information un lien entre les dénominations « special librarians » et « information officers ». Dans les pays francophones, on utilise le terme documentaliste pour information scientist.
La science de l’information a émergé avec la seconde guerre mondiale, en parallèle à l’informatique. Cette émergence correspond au phénomène de l’explosion de l’information. L’information a toujours été capitale, quelle que soit la société et l’époque, mais son rôle et son importance ont varié. Avec l’évolution de l’ordre social vers la société post-industrielle ou ce que nous appelons communément la société de l’information, le savoir et l’information assument un rôle central dans chacun des aspects de la vie.
Vakkari et Cronin ont souligné l’incertitude que les praticiens montrent envers ce que l’on appelle l’information. Si l’opposition entre aspect technique (la conception de systèmes) et aspect humain (étude des pratiques socioculturelles et capacités cognitives) partage le champ disciplinaire, cette opposition semble partager aussi les praticiens (opposition entre les bibliothèques universitaires et les bibliothèques de lecture publique). Mais l’articulation entre ces aspects peut, peut-être, constituer un nouvel enjeu pour la science de l’information. Il semble qu’actuellement aucune nouvelle théorie n’émerge du champ de la science de l’information pour développer de nouvelles voies de pensée. Dans le champ académique, les programmes de recherche anglo-saxons, par exemple, se sont plutôt centrés sur des problèmes pratiques comme la fourniture de documents à un nombre croissant d’étudiants. Les programmes sont concentrés sur la construction de modèles pour le futur des bibliothèques et investiguent des nouvelles voies de création et d’accessibilité à des sources d’information en développant le concept de bibliothèque virtuelle ou « hybrid library ».
Nous ne pouvons terminer cette réflexion, sans évoquer les liens entre la bibliothéconomie, la communication et la science de l’information.
Les relations entre la bibliothéconomie et la science de l’information sont souvent ambiguës et floues. Dans ce débat récurrent, la science de l’information apparaît généralement comme une discipline à portée théorique beaucoup plus grande que la bibliothéconomie ou la documentation, celles-ci étant perçues comme des domaines professionnels. « The aim of librarianship at whatever intellectual level it may operate is…to bring to the point of maximum efficiency the social utility of man’s graphic records, wether the patron served is a child absorbed in his first picture book or the most advanced scholar engaged in some esoteric inquiry » (12).
Dans le Dictionnaire encyclopédique des sciences de l’information et de la communication, la bibliothéconomie est définie comme « l’ensemble des processus, règles, moyens humains et financiers à mettre en œuvre pour offrir les meilleurs produits et/ou services, au moindre coût, en tenant compte des besoins des consommateurs (clients ou usagers du service de la bibliothèque) ». Ou encore pour Line, c’est un ensemble composite de connaissances, de compétences et de pratiques qui sont pour la plupart tout aussi utiles dans d’autres domaines professionnels. Calenge l’aborde avec quatre définitions recouvrant l’ensemble du concept :
- Au sens général c’est l’activité qui utilise et coordonne l’ensemble des sciences qui sont orientées vers la meilleure appropriation du savoir par les individus dans diverses communautés (fonds + services).
- La bibliothéconomie « pure » est l’activité de modélisation des situations et processus relatifs à la bibliothéconomie, les méthodologies de gestion de la collection et des services.
- La bibliothéconomie « appliquée » concerne la conception et la réalisation d’outils visant à diagnostiquer des anomalies dans l’appropriation du savoir.
- L’art bibliothéconomique consiste à mettre en œuvre les outils élaborés dans le cadre de la bibliothéconomie appliquée.
Bibliothéconomie et science de l’information ont en partage le rôle social et l’utilisation effective des enregistrements sur tous supports, par les individus. Mais il y a aussi des différences significatives, essentiellement dans la manière d’aborder les problèmes. En bibliothéconomie, les problèmes soulevés sont avant tout pratiques. Le bibliothécaire cherche une solution pour résoudre son problème sans référer forcément à un modèle théorique. Les outils et méthodes utilisés relèvent avant tout de la technologie.
Ces divergences conduisent à la conclusion que bibliothéconomie et science de l’information sont deux champs distincts dans des relations interdisciplinaires. Ce n’est pas que l’une soit moins bonne que l’autre, mais les oppositions se situent dans la sélection et/ou la définition des problèmes posés et les paradigmes de référence. Bibliothéconomie et science de l’information sont bien reliées mais dans des champs différents.
Une profession s’identifie généralement avec un objet ou un champ d’action précis or, le bibliothécaire ne se définit pas par rapport à la bibliothéconomie (encore moins à la science de l’information), mais comme un professionnel des bibliothèques. Ce lien ne remet pas en cause les tâches propres et les caractéristiques principales d’un métier. Le rôle premier du bibliothécaire est bien de gérer des connaissances ou plus globalement une partie du savoir de l’humanité. L’opposition entre bibliothéconomie et science de l’information est un faux débat, la bibliothéconomie peut juste dans certains de ses aspects, toucher à certains champs de la science de l’information. Même si elle n’est pas « science » au sens strict, la bibliothéconomie peut entreprendre une démarche scientifique. Il faut un modèle théorique pour faire une observation et c’est en construisant ce modèle qu’elle prend une dimension scientifique. Il ne s’agit pas du modèle au sens mathématique mais de la formalisation de scénarios d’analyses et de procédures réutilisables dans diverses situations. La bibliothéconomie se fonde sur la pratique et donc le débat opposant bibliothéconomie et science de l’information serait un faux débat, la science de l’information étant discipline et la bibliothéconomie pouvant, dans certains de ses aspects toucher au champ de cette discipline. « Les sciences de l’information, les sciences humaines ou sociales, n’ont pas besoin de la bibliothéconomie pour poursuivre leur projet, alors que la bibliothéconomie a besoin de ces sciences, sans pouvoir s’identifier à elles ». (13)
Toute science a été précédée d’une technique qui lui a fourni des problèmes, un matériel et des moyens de contrôle. La bibliothéconomie, contrairement à la plupart des autres sciences sociales, a surtout développé le côté pratique en négligeant l’aspect théorique. Ainsi, la bibliothéconomie a placé la théorie et les principes de la discipline en dehors de la profession, à l’extérieur de la sphère d’influence des bibliothécaires eux-mêmes. La bibliothéconomie a pourtant le mérite d’offrir un langage commun et le partage de techniques ce qui donne aux bibliothécaires identité et reconnaissance.
Le regard du spécialiste de l’information se porte sur l’information comme telle, celui du bibliothécaire se porte sur le support. Le champ d’exercice du spécialiste de l’information est la gestion de l’information où qu’elle soit, celui du bibliothécaire est la bibliothèque. On peut toujours mettre en avant les théories diverses de la science de l’information : la théorie de Shannon, la loi de Bradford ou celle de Zipf-Mandelbrot, etc., ou encore une méthode propre comme la bibliométrie. La science de l’information se caractérise par l’étude du phénomène du transfert de l’information et la bibliothéconomie se préoccupe de ce qui se passe dans les bibliothèques. « La science de l’information apporte à la bibliothéconomie et à l’archivistique un cadre théorique plus large, un contexte, une perspective holistique qui encourage la réflexion et la recherche » (14).
Tout se passe comme si la discipline était tiraillée entre d’une part, une science de l’information partie intégrante de la démarche des sciences sociales et donc appelée à respecter les règles de la rigueur épistémologique dans la construction autonome de l’objet, et, d’autre part, une science de l’information plus portée sur l’ingénierie documentaire, confortée qu’elle peut être dans cette voie par une demande plus ou moins pressante qui la pousse à offrir des « solutions » à des problèmes documentaires. Reste à se demander comment gérer cette tension. On pourrait se demander si l’on n’éviterait pas des malentendus en procédant à l’identification plus précise des différentes postures avec d’un côté des enseignants – chercheurs en science de l’information de type « social scientists » et de l’autre, des spécialistes de l’information, ingénieurs d’un savoir pratique spécialisés dans les questions documentaires. Cette distinction poserait la séparation entre ce qui relève d’abord de la recherche des savoirs et ce qui appartient au champ de la pratique documentaire.
Si les relations de la science de l’information et de la bibliothéconomie sont floues, celles qui concernent la communication ne sont pas aussi limpides qu’il y paraît.
Pourquoi, par qui, dans quelles conditions rassembler dans un même ensemble les sciences de la communication et celles de l’information alors qu’elles appartiennent à deux mondes qui fonctionnent presque toujours ailleurs de façon séparée ?
Les protagonistes qui ont présidé à la naissance officielle de la discipline dans les années 70 en France, ont hésité entre diverses appellations telles que « Sciences des représentations » ou encore « Sciences des significations ». Ceci montre que, même s’ils étaient attirés par une même réflexion théorique, ils ne poursuivaient pas les mêmes buts. Si certains avaient pour préoccupation l’institutionnalisation des formations et de la recherche, d’autres ont continué à fonctionner intellectuellement dans leur discipline d’origine. La terminologie retenue, tout en favorisant l’ouverture intellectuelle a aussi entretenue une certaine ambiguïté. L’association des sciences de l’information et celles de la communication (SIC) - que l’on appelle couramment info-com aujourd’hui - permet de servir les intérêts de divers groupes de spécialistes sans prendre une position définitive sur l’épistémologie du domaine. Cette position explique peut-être que la structuration du domaine a mis quelques années à se faire et les spécificités des SIC ne s’imposent pas sans difficulté.
On peut définir l’objet de la science de la communication ainsi : « La science de la communication cherche à comprendre la production, le traitement et les effets des symboles et des systèmes de signes par des théories analysables, contenant des généralisations légitimes permettant d’expliquer les phénomènes associés à la production, au traitement et aux effets » (Chaffee et Berger, cités par Lazar (15) ).
Un noyau dur des études en communication réside dans l’histoire des technologies du traitement et de la transmission des messages. Ce noyau déborde de l’histoire exclusivement en direction d’une médiologie qui va examiner l’outil de transmission ou le média, sous toutes ses facettes et tous ses aspects (sémiologiques, pragmatiques, systémiques, imaginaires).
Les études en communication s’intéressent aux usages, aux effets symboliques et, par la logique des médias, c’est l’interpersonnel et le social qui entrent en jeu. La communication est partout, elle est « comme un gros nuage que les vents poussent et déchirent, et qui plane sur à peu près tous les savoirs » (10).
Wolton rejette l’existence d’une discipline : « La communication est un objet de connaissance interdisciplinaire, à la mesure de sa dimension anthropologique, et cette dimension de carrefour doit être préservée pour éviter une spécialisation, apparemment rassurante mais en fait réductrice et appauvrissante ». Wolton recommande de se servir du capital d’expérience et de connaissance des disciplines qui participent du champ de recherche, de favoriser la production de connaissances et non la description, de penser la communication dans son contexte et de contribuer à la construction du milieu scientifique en favorisant les revues.
Le couplage des deux disciplines n’a peut-être pas été toujours favorable à la science de l’information. On constate aujourd’hui en France, que les laboratoires et les équipes de recherche qui se revendiquent expressément de la science de l’information sont moins nombreux que ceux qui se réclament des sciences de la communication et la communauté de la science de l’information – documentation est moins nombreuse que celle des sciences de la communication.
Dans ce contexte, il va de soi que répondre à la question « pourquoi RESSI ? » est aussi malaisé que nécessaire, pour des raisons inhérentes à l’essence même de la connaissance informationnelle plutôt qu’à la conjoncture dans laquelle s’inscrit la création d’une nouvelle revue scientifique.
Répondre à cette question est nécessaire parce que nous devons examiner tout ce que nous venons de dire et le mettre en perspective avec la capacité de la nouvelle revue à promouvoir la réflexion épistémologique, la confrontation des pratiques méthodologiques et l’échange des points de vue théoriques tels qu’ils émergent, s’appliquent et se produisent dans la sphère scientifique suisse en premier lieu et internationale ensuite. Mais répondre à cette question est en même temps difficile parce que, outre la modestie élémentaire qu’exige la déontologie scientifique des responsables d’une telle initiative et la modération que leur impose le sens commun, il paraît arrogant de prétendre que l’organe éditorial d’une communauté à peine née dans un petit pays, qui n’a, à son actif, qu’une tradition « récente » en matière de science de l’information peut réussir là où de l’avis partagé d’éminents confrères peu de résultats probants ont à ce jour été enregistrés au niveau international. RESSI ne se pose pas en concurrente des revues professionnelles dont les objectifs sont d’ailleurs différents des nôtres mais elle complète le paysage informationnel suisse en le dotant d’une nouvelle tribune.
RESSI se propose donc de contribuer à cet effort avec toutes les forces qu’elle pourra puiser dans la faveur de son public de lecteurs, dans la confiance de ses auteurs et dans le soutien des membres du comité de lecture. C’est pourquoi elle ouvre ses pages à toutes les tendances et domaines de la science de l’information dans l’espoir d’accueillir dans chacun de ses numéros des articles reflétant des théories concurrentes, des méthodologies diverses et des orientations épistémologiques différentes. Cette volonté de pluralisme n’est pas synonyme de rabais scientifique, autrement dit si RESSI est ouverte à tous les aspects et les points de vue, elle n’est pas pour autant disposée à accueillir des opinions personnelles non fondées ou des données de recherche lacunaires. Le niveau scientifique des membres du comité de lecture, appelés à expertiser les textes qui seront proposés, constitue une garantie suffisante du sérieux avec lequel nous avons l’intention de nous acquitter de cette tâche difficile. Car il s’agit d’offrir à la communauté suisse et internationale une nouvelle tribune sur laquelle viendront se rencontrer, s’affronter et se mesurer les expressions de la science de l’information avec l’espoir de contribuer à l’impression d’un souffle nouveau à la connaissance informationnelle.
Bibliographie
(1) BENOIT, Denis. Introduction aux sciences de l’information et de la communication. Paris : Ed. d’Organisation, 1995
(6) BORKO, H. Information science : what is it ? American Documentation, January 1968, 19 (1), p. 3 - 5
(10) BOUGNOUX, Daniel Sciences de l’information et de la communication : textes essentiels. Paris : Larousse, 1993
(7) BOURDIEU, Pierre. La cause des sciences. Comment l’histoire sociale des sciences peut-elle servir le progrès de ces sciences. Actes de la recherche en sciences sociales, 1995, n° 106-107, p. 3-10
(5) BOURDIEU, Pierre. Le champ scientifique. Actes de la recherche en sciences sociales. 1976, 2-3, p. 99
BOURE, Robert. Quelle histoire pour les sciences de l’information et de la communication ? In. BOURE, Robert (Ed.). Les origines des sciences de l’information et de la communication : regards croisés. Villeneuve d’Ascq : Presses universitaires du Septentrion, 2002. P. 17-44
BUCKLAND, Michael, LIU, Zimmimg. History of Information Science. Annual Review of Information Science and Technology (ARIST).1995, vol. 30, p. 385- 415
(13) CALENGE, Bertrand. Peut-on définir la bibliothéconomie ? essai théorique. Bulletin des Bibliothèques de France, 1998, t. 43, n° 2, p. 8-20
COSSETTE, André. Humanisme et bibliothèques : essai sur la philosophie de la bibliothéconomie. Montréal : ASTED, 1976
(14) DESCHATELETS, Gilles. Bibliothéconomie vs science de l’information :…Science de l’information. Documentation et bibliothèques, 1994, juillet/septembre, p. 167-168
EAST, H. Towards the schism : Information officers at the Royal Society Scientific Information Conference, 1948. JASIS, 1998, 24, p. 271-275
(2) ESTIVALS, Robert. Editorial. Schéma et schématisation, 1983, 4ème trim.n° 19, p. 5-8
(9) FONDIN, Hubert. La science de l’information : posture épistémologique et spécificité disciplinaire. Documentaliste – Sciences de l’information, 2001, vol. 38, n° 2, p. 112-122
(4) FOUREZ, Gérard, ENGLEBERT-LECOMTE, Véronique, MATY, Philippe. Nos savoirs sur nos savoirs : un lexique d’épistémologie pour l’enseignement. Bruxelles : De Boeck, 1997
KUHN, Thomas. La structure des révolutions scientifiques, Paris : Flammarion, 1972. (1ère éd. 1962)
LAMIZET, Bernard, SILEM, Ahmed (Dir.). Dictionnaire encyclopédique des sciences de l’information et de la communication. Paris : Ellipses, 1997
(15) LAZAR, Judith. La science de la communication. Paris : Presses universitaires de France, 1992
(8) LE COADIC, Yves-François. La science de l’information. Paris : PUF, 1994
LINE, Maurice B. Le métier de bibliothécaire : un ensemble de pratiques confuses et discontinues. Bulletin des Bibliothèques de France, 1998, t. 43, n° 2, p. 44-48
(11) METZGER, Jean-Paul. Les trois pôles de la science de l’information. In Viviane Couzinet [et al.]. (Dir.). Recherches récentes en sciences de l’information : convergences et dynamiques : actes du colloque international organisée les 21 et 22 mars 2002 à Toulouse… Paris : ADBS, 2002. P. 17 - 28
OCDE. L’enseignement tertiaire en Suisse : examens des politiques nationales d’éducation. Paris : OCDE, 2003
RAUZDUEL, Rosan. Dialectique et savoir systémique. Bern : P. Lang, 1999
SARACEVIC, T. Information science : origin, evolution and relations. In VAKKARI, P, CRONIN, B. Conceptions of library and information science. London : T. Graham, 1992. P. 5-27
SHAPIRO, F.R. Coinage of the term information science. JASIS, 1995, 46, p. 384-385
(12) SHERA, Jesse H. The foundations of Education for Librarianship. New York : Becker and Hayes, 1972
(3) VARET, Gilbert. Pour une science de l’information comme discipline rigoureuse. T. 1 : profils épistémologiques du concept d’information. Paris : Les Belles Lettres, 1987
VICKERY, B.C., VICKERY, A. Information science in theory and practice. London : Bowker-Saur, 1994. (1st ed. 1987)
WOLTON, Dominique. Penser la communication. Paris : Ed. du Seuil, 1997
Knowledge Management et management de l’information : la dimension humaine des « communautés de pratiques »
Ressi — 22 janvier 2005
Jean-Philippe Accart, Bibliothèque Nationale Suisse
Knowledge Management et management de l’information : la dimension humaine des « communautés de pratiques »
Une recherche dans le cadre du Réseau des bibliothèques de Suisse occidentale (RERO) (1)
Les communautés de pratiques : création et transfert de connaissances
Une communauté de pratiques (comunities of practices ou best practices dans certaines organisations du savoir anglo-saxonnes) se définit comme « un groupe dont les membres peuvent partager leur savoir et apprendre les uns des autres sur tous les aspects de leur pratique » (Wenger, 2000). Un sondage réalisé en 2000 (Bartlett, 2000) a montré que les individus préfèrent le contact avec leurs collègues pour obtenir information et assistance dans leur travail. Les communautés de pratiques ont pour buts de mettre l’expertise en commun, de créer une synergie, d’identifier et de partager les meilleures pratiques, de discuter et d’analyser les leçons apprises et d’identifier les problèmes. Elles sont le lieu où l’innovation naît. Les valeurs de l’entreprise, le climat de travail, l’investissement personnel, la culture de l’entreprise jouent un rôle essentiel. Il s’agit de créer, au travers de ces communautés, un modèle de mentalité commune aux membres de l’organisation (2), un mode de fonctionnement partagé. L’individu n’est pas seul concerné : il évolue dans un ou plusieurs groupes eux-mêmes membres d’une organisation.
Une approche à trois niveaux
Trois niveaux d’approche peuvent être distingués : l’individu, la communauté et l’entreprise. L’approche globale qui en résulte permet de distinguer les stratégies d’acquisition de connaissances structurées de la part de spécialistes (Mc Graw, 1999) ; l’apprentissage avec l’analyse de tâche et de poste pour concevoir des « systèmes de soutien à la tâche » (Gery, 1991) ; et la gestion des connaissances qui cartographie les actifs intellectuels et analyse les échanges entre groupes d’intérêt. Dans une organisation, les structures de connaissance sont des constructions sociales qui se développent de façon dynamique. La socialisation des membres entre les communautés de pratiques est le fondement de ces constructions sociales (Haines, 2001).
Communauté de pratiques et échanges de connaissances
Concrètement, une communauté de pratiques se réunit lors d’ateliers de travail (workshops). Les séances sont préparées à partir d’informations disponibles, d’entrevues avec des personnes-clés et de synthèses sur les affaires en cours. Un certain nombre de points sont évoqués lors des ateliers, points qui permettent ensuite d’analyser « le réseau social ». Parmi ces points :
- A qui faites-vous appel lorsque vous n’arrivez pas à résoudre un problème ?
- A qui vous adressez-vous pour chercher de l’information ?
- Quelles sont les personnes proches à qui vous communiqueriez une nouvelle importante ?
Un point crucial : la résolution de problèmes L’atelier de travail est le lieu idéal pour traiter une situation problématique qui se pose à un ou plusieurs membres de la communauté. Elle peut faire l’objet d’une simulation et servir à produire un modèle d’étude de cas (cas de routine avec différents degrés : moyennement difficile ; difficile ; très difficile). Un consensus doit se dégager afin de converger vers un objectif : le résultat attendu par rapport à une situation problématique soulevée. Fréquence, durée et difficultés occasionnées sont parmi les points évoqués : c’est notamment le cas des pannes dans les ateliers de travail ; des pannes informatiques sur les réseaux. La documentation afférente à ce type de problème est très utile : notes de service, procès-verbaux, rapports... L’appel à d’autres spécialistes s’avère parfois nécessaire. Afin d’illustrer les communautés de pratiques, une étude de cas est proposée. En sciences de l’information, les exemples ne sont pas fréquents. Le cas du Réseau des bibliothèques de Suisse occidentale (RERO), outre le fait qu’il se situe dans le contexte suisse, est un cas d’étude intéressant car il rassemble les trois approches décrites précédemment et correspond à l’acceptation actuelle d’une communauté de pratiques professionnelle.
Le cadre conceptuel et le cadre de la recherche : étude d’une organisation du savoir, le Réseau des bibliothèques de Suisse occidentale (RERO)
Le Réseau des bibliothèques de Suisse occidentale (RERO), en tant que cadre de recherche, correspond à un choix personnel. Au cœur de cette organisation durant deux années (3), nous avons pu étudier de l’intérieur un réseau de bibliothèques constitué de par la volonté d’un groupe et qui met « l’accent sur le savoir » (4) . S’adressant à tout type de public en Suisse romande (universitaires, étudiants, chercheurs, grand public…), RERO est l’instrument d’une « bibliothèque romande » riche des collections, des compétences et du partage de ressources de plus de 200 bibliothèques universitaires et de référence de Suisse romande. Le réseau s’appuie sur une architecture à plusieurs niveaux, fondée sur l’échange de pratiques professionnelles ou communautés de pratiques.
Organisation et structure du réseau RERO (5) : quelques chiffres
Sous l’égide de la Conférence Universitaire de Suisse Occidentale (CUSO), le Réseau de bibliothèques de Suisse occidentale est constitué de cinq sites - Valais, Fribourg, Neuchâtel-Jura, Vaud, Genève - avec pour arrière-fond la structure politique des six cantons francophones (dont deux comprennent des minorités germanophones). 210 000 lecteurs sont inscrits dont 35 000 étudiants appartenant à cinq universités. Le réseau utilise un système de catalogage commun : 600 bibliothécaires dans plus de 200 bibliothèques de recherche et de références sont formés à son utilisation. Le catalogue collectif informatisé comprend plus de 3, 3 millions de notices bibliographiques. Il résulte de 20 ans de travail sur le système SIBIL, migré à VTLS en 1997 et à VTLS/VIRTUA depuis 2002. Hormis un catalogue collectif, les sites possèdent des catalogues locaux contenant en plus les cotes et les données nécessaires au prêt des documents (livres, documents sonores et vidéogrammes). La synchronisation des catalogues locaux est assurée par le mécanisme de distribution électronique EDIS avec mise à jour automatique des champs modifiés. L'interface Web pour l'Accès public (ou OPAC), le Catalogue collectif RERO (http://opac.rero.ch), permet de consulter aisément les catalogues locaux. La page d'accueil donne accès à l'ensemble des ressources du réseau.
La structure légale de RERO est une association : une convention a été signée entre les parties qui sont les cantons de Fribourg, Genève, Neuchâtel, Vaud, Valais et Jura, la Ville de Genève, l’Institut suisse de droit comparé (ISDC), la Haute école spécialisée de Suisse occidentale (HES-SO) et la Haute école spécialisée Santé-Social de Suisse romande (HES-S2). L'association est dirigée par un Conseil Exécutif composé de cinq membres dont deux sont nommés par le Comité des Directeurs des grandes bibliothèques ROMandes (CDROM) et trois par la Conférence Universitaire de Suisse Occidentale (CUSO) où siègent les ministres de l'éducation des cantons partenaires et les recteurs des universités membres. La clé de répartition des coûts du système (en cours de réévaluation) est fondée sur une contribution des bibliothèques membres.
L'organisation centrale – la « tête du réseau » installée à Martigny dans le canton du Valais - est constituée de spécialistes bibliothécaires et d’informaticiens. Elle assure différents types de prestations pour le réseau :
- le contrôle de la qualité des données bibliographiques ;
- la réalisation de produits tels qu’inventaires, bibliographies, statistiques pour les bibliothèques ;
- la maintenance en production du système informatique ;
- le support, la documentation ;
- la distribution du logiciel ;
- le développement d’outils ;
- la mise en place de projets…
Dans le modèle adopté par RERO, les machines sont la propriété des cantons mais le coût des logiciels est pris en charge par RERO qui contrôle les décisions concernant les systèmes Vtls et le système de gestion de base de données sous-jacent ORACLE. Les ingénieurs système des partenaires gèrent les machines locales.
Tous les aspects du travail bibliothéconomique sont présents dans RERO et suivent la chaîne documentaire traditionnelle. Même si les acquisitions de documents reposent sur le logiciel Virtua, celles-ci sont cependant propres à chaque site. Les fonctions courantes (catalogage, indexation-matières - l’intégration du thesaurus dans la base est récente -, gestion des périodiques, prêt, prêt inter) s’appuient également sur l’utilisation d’un logiciel commun, Vtls/VIRTUA. Les modules d’acquisition et du bulletinage sont, eux, en cours d’implémentation.
Le catalogage partagé est le principe fondateur du réseau (7). La qualité des données bibliographiques fait l’objet de soins constants de la part des bibliothécaires sur les sites et du coordinateur à la Centrale. Ce dernier contrôle les données, rédige les règles de catalogage (pour les données titre1, auteur(s), données bibliographiques) disponibles en ligne. Le Catalogue collectif RERO, mis à jour constamment, même s’il comprend des données en plusieurs langues, est un des plus importants à l’heure actuelle en langue française. Enfin, citons le prêt entre bibliothèques qui a fait l’objet d’un développement particulier avec l’application ILL RERO en 2003 tout en s’appuyant sur les données du Catalogue collectif et des catalogues locaux. Le dernier projet RERO est RERODOC, base de données de documents électroniques plein-texte (thèses et ouvrages anciens).
Hormis le Conseil Exécutif qui décide l’orientation générale, édicte la politique globale du réseau et dégage une vision prospective, le CDROM est une instance consultative qui propose les choix bibliothéconomiques. A ces deux commissions les plus élevées dans la hiérarchie du réseau, vient s’adjoindre une troisième commission, la COBASES, qui propose les évolutions techniques du réseau. Les autres commissions ou groupes de travail – il en existe une par module : catalogage, indexation matières, prêt inter, prêt, OPAC, bulletinage, acquisitions – sont pour leur part des communautés de pratiques où s’échangent, se partagent et se transmettent savoirs et connaissances théoriques et pratiques. Composées des coordinateurs locaux et centraux, elles sont chargées de résoudre les questions et problèmes qui se posent au quotidien dans les bibliothèques du réseau et touchant au logiciel. Dans la hiérarchie du réseau, ces commissions représentent le troisième échelon : elles sont le lien direct entre l’organisation centrale RERO à Martigny et l’ensemble des sites répartis en Suisse romande, d’où leur importance.
Il existe deux types de coordinateurs RERO et leur rôle est essentiel : - les coordinateurs locaux sur chaque site ont un mandat officiel de leur institution inscrit dans leur cahier des charges. Ils la représentent, doivent signaler les problèmes et travailler à leur résolution avec les coordinateurs centraux ; - les coordinateurs centraux (un par Commission) animent et dirigent les réunions des Commissions ; celles-ci ont lieu régulièrement (3 à 6 fois par année) et constituent ainsi de véritables communautés de pratiques. Ils rassemblent les problèmes et questions, les signalent dans une base de données de problèmes (RTS – Rero Tracking System), tentent de les résoudre avec l’équipe informatique centrale et rédigent les manuels de leur module. Ils préparent les dossiers qui serviront ensuite d’aide à la décision, notamment pour la COBASES.
Le suivi des problèmes à RERO
Les problèmes à résoudre sont généralement très concrets : une fonctionnalité préexistante disparaît lors de l’installation d’une nouvelle version du logiciel ; un lecteur ne se voit plus autorisé à avoir les mêmes droits ou il est « bloqué » par le système ; les caractères n’apparaissent plus correctement ; les résultats affichés lors d’une recherche ne sont plus dans l’ordre souhaité… Les exemples peuvent être multipliés. Plusieurs étapes sont alors nécessaires pour la résolution :
- annonce du problème, le plus souvent en le documentant (avec des copies d’écrans et des exemples) ;
- intégration dans la base de problèmes RTS et attribution d’un numéro d’enregistrement;
- lecture et analyse de la documentation professionnelle Vtls/Virtua ;
- analyse et essai de reproduction du problème ;
- tests sur une base de tests ;
- si le problème provient du logiciel Vtls/VIRTUA, transmission du cas à Vtls ;
- une fois le problème résolu, envoi de la solution sur les sites.
Voici schématiquement le suivi d’un problème à RERO. Coordinateurs locaux et centraux, informaticiens et experts collaborent pour résoudre le problème.
Structure organisationnelle du Réseau RERO

Comité des Directeurs des grandes bibliothèques ROMandes (CDROM) (organe consultatif) |
Conseil Exécutif RERO (organe décisionnel) |
Direction
Direction-Adjointe
Groupe de compétences Bibliothèques (bibliothécaires) |
Groupe de compétences Informatique (informaticiens) |
COBASES
Catalogage – Matières – Accès public (OPAC) - Prêt – Prêt inter – Bulletinage – Acquisitions
(bibliothécaires et ingénieurs système)
(200 bibliothèques)
Un organe de réflexion et de décision : la COBASES
Cette Commission est composée des chefs de projet des sites (soit cinq personnes) en prise directe avec les questions touchant à la mise en place et à l’évolution du logiciel Vtls/Virtua ; des directeurs adjoints RERO et de bibliothécaires. Il est à signaler que les chefs de projets sont des personnes d’expérience, pour certains ayant suivi et participé au passage du logiciel SIBIL à Vtls puis Vtls/Virtua. Leurs compétences sont élevées et leurs savoirs en matière informatique et pratique du système sont des savoirs d’experts. Les travaux de cette Commission sont orientés selon des thèmes généraux et des sujets d’actualité propres au réseau. Cette commission suit l’évolution du système informatique, véritable colonne vertébrale du réseau. Il est à signaler cependant que l’apport des travaux des différentes Commissions et l’avis des coordinateurs sont des moteurs essentiels pour le fonctionnement de cette Commission. Parallèlement, le fournisseur du logiciel Vtls/Virtua fait lui-même évoluer le système, en prenant en compte les souhaits de ses clients réunis au plan européen au sein d’un groupe d’utilisateurs, l’EUG. Pour RERO, c’est la Commission COBASES qui étudie et fait les propositions d’améliorations. Un thème est choisi et analysé par la Commission, suivi d’une étude réalisée par deux ou trois experts : ces experts ayant l’habitude de travailler avec le système, de suivre ses évolutions sont les plus à même de faire des propositions d’amélioration aux plans technique et technologique. La mise en commun de problèmes et solutions bénéficie au réseau dans son ensemble : il n’est pas rare en effet qu’un sujet qui intéresse un site soit aussi d’un grand intérêt pour d’autres sites et le réseau dans son ensemble. A titre1 d’exemple, la mise en place de la « recherche rapide » (type Google) qui a les faveurs des utilisateurs pour sa facilité et sa rapidité, a été réalisée dans un premier temps sur le site vaudois. A la demande des autres sites, la Commission a décidé d’étendre ce type de recherche à l’Accès public RERO (catalogue collectif RERO). Cinq types de recherches existent maintenant : rapide, par index, mots clés, recherche contextuelle et en mode expert. Cet exemple fait état d’une démarche concentrique propre à tout travail en réseau : de nombreuses autres propositions d’améliorations sont faites par les sites puis appliquées au réseau quand elles ont été testées avec succès. L’homogénéité du réseau préside à toute réflexion. Cela ne va pas sans heurts, chaque site ayant sa spécificité. L’intelligence des différents professionnels ayant opté pour une stratégie réseau est de faire en sorte que chaque site garde une certaine autonomie pour sa page d’accueil : ainsi, chaque catalogue local a une page Web personnalisée à ses couleurs et les langues d’interrogation du catalogue sont fonction des particularités locales (le français est la règle, suivi par l’allemand et l’anglais).
Analyse et conclusion
Bien que résumée, l’organisation hiérarchique du réseau RERO est un cas d’école intéressant pour la problématique qui nous occupe. Il apparaît en effet qu’un travail impliquant plusieurs centaines de personnes utilisant un même outil informatique ne peut que bénéficier d’une organisation hiérarchisée en commissions où les problèmes constatés à la base doivent remonter vers les experts chargés de les résoudre. Le découpage hiérarchique par commissions (la hiérarchie s’appliquant ici non pas au degré d’expertise des membres, mais aux différents niveaux possibles de résolution des problèmes selon les modules) décrit précédemment montre bien que des niveaux différents de résolution de problèmes sont nécessaires : les groupes d’intérêt qui se sont mis en place (les Commissions) traitent de ces problèmes, les résolvent pour certains ou les transmettent à d’autres experts. Il en est de même pour les évolutions attendues du système informatique qui sont des enjeux importants pour les sites confrontés directement aux attentes des lecteurs. Cette organisation complexe ne saurait fonctionner s’il n’y avait pas des intérêts communs représentés par les communautés de pratiques que sont les Commissions. Ces intérêts sont nombreux : le partage des ressources et du travail ; la volonté d’utiliser un outil commun pour toutes les opérations bibliothéconomiques ; le souhait de répondre aux exigences actuelles en matière bibliothéconomique (normes, standards et règles) ; le souhait de répondre à un public de plus en plus exigeant ; une volonté quasi « politique » de travailler en réseau. Il a été constaté que le fait, par exemple, de réduire le nombre des Commissions existantes ou de restreindre leurs réunions – pour des raisons parfois d’ordre pratique - était préjudiciable au bon fonctionnement du réseau. Un autre point essentiel à souligner est le niveau de compétences des différents experts (les coordinateurs) qui constituent les Commissions : le meilleur garant de l’expertise dans ce cas précis est d’avoir une connaissance approfondie du logiciel, une connaissance du terrain (besoins des utilisateurs et des bibliothèques) et pour certains d’avoir participé aux diverses évolutions du réseau. Sans cela, les Commissions ne fonctionneraient pas correctement. Dans le cas décrit ci-dessus, communautés de pratiques, groupes d’intérêts et expertise se conjuguent étroitement, avec une volonté exprimée de travailler ensemble. Cet exemple n’est évidemment pas le seul, mais il demeure suffisamment original pour constituer un cas d’étude actuel à l’heure où la gestion des connaissances (Knowledge Management) prend de plus en plus le pas sur la seule gestion de l’information.
Notes
(1) Cette recherche est menée dans le cadre d’une thèse de doctorat entreprise en 2002 à l’Université Lyon 1 – Enssib au sein du laboratoire de recherche GRESI. D’autres informations et un Dossier Knowledge Management sont consultables sur le site de l’auteur : .
(2) Le terme « organisation » rassemble indifféremment une entreprise ou une institution, privée ou publique.
(3) L’auteur a été de 2002 à 2004, coordinateur du Prêt, du Prêt inter et de l’OPAC à RERO.
(4) « L’accent sur le savoir » est la phrase-clé présente sur la page d’accueil du site Web RERO : http://www.rero.ch
(5) Cette partie s’inspire des documents officiels diffusés par RERO et de notre propre expérience de coordinateur.
(6) Nous n’évoquerons que quelques aspects des fonctions bibliothéconomiques dans RERO, car leur étude détaillée dépasserait le cadre de cet article.
(7) On lira avec intérêt les ouvrages de Pierre Gavin qui exposent aussi bien l’histoire du Réseau que les aspects techniques et informatiques (Ouvrages référencés dans le Catalogue collectif RERO). Voir également le site de Pierre Gavin : < http://www.pierregavin.ch >
Bibliographie
ALVESSON Mats (1995). Management of Knowledge Intensive Companies. Berlin, Walter de Gruyter. ISBN 3-11-012865-9
AMABILE S., GADILLE M., MEISSONNIER R. (2000), Information, organisation, décision : étude empirique sur les apports des NTIC dans les PME « Internautes », Système d’information et management, n° 1, pp. 41-59.
BALLAY Jean-François. (1997). Capitaliser et transmettre les savoir-faire de l’entreprise. Paris, Editions Eyrolles. ISBN 2-21-2016530
BARTLETT J., (2000), Need to know, Knowledge Management, Dec., pp 22-25.
CADDY Ian (2001), Orphan knowledge : the new challenge for knowledge management », Journal of Intellectal Capital, vol. 2, n° 3, pp. 183-191.
DRUCKER Peter Ferdinand. (1995). Managing in a Time of Great Change. New York, NY, Truman Talley Books/Dutton. ISBN: 0-52-594053-7
DUPOIRIER Georges (coord), ERMINE Jean-Louis. (coord) (1999). Gestion des documents et gestion des connaissances, Document numérique, n° 3-4, vol. 3.
EDVINSSON Leif, MALONE Michael (1999). Le capital immatériel de votre entreprise. Identification, mesure, management. Paris, Maxima-Laurent du Mesnil. ISBN 2-84-001195-6
FOUET Jean-Marc (1997). Connaissances et savoir-faire en entreprise : intégration et capitalisation. Paris, Hermès. ISBN 2-86-601627-0
HAINES V.Y., BEDARD J.P. (2001), Early retirements and the dynamics of social knowledge creation », Journal of Intellectual Capital, vol. 2, n° 3, pp. 273-283.
LIEBOWITZ Jay (1999). Knowledge Management Handbook. Boca Raton, FL, CRC Press. ISBN 0-84-930238-2
MAYERE Anne (1995). La gestion des savoirs face au nouveau modèle industriel, Revue française de gestion, sept-oct., pp. 8-16
NONAKA Ikujiro, TAKEUCHI Hirotaka (1995). The Knowledge Creating Company. New York, The Oxford University Press. ISBN 0195092694
POLANYI Michel. (1966). The Tacit Dimension. London, Routledge & Paul Kegan.
SIMON Herbert Alexander (1976). Administrative Behavior: A Study of Decision-Making Processes in Administrative Organization, (3rd). New York, NY: Free Press.
SVEIBY Karl Erik (2000). Knowledge Management. La nouvelle richesse des entreprises. Savoir tirer profit des actifs immatériels de sa société. Paris, Maxima-Laurent du Mesnil. ISBN
VON KROGH Georg, ICHIJO Kazuo, NONAKA Ikujiro (2000). Enabling Knowledge Creation : how to Unlock the Mystery of Tacit Knowledge and Release the Power of Innovation. Oxford, Oxford University Press. ISBN 2-84-001217-0
WENGER Etienne (2000). Communities of practice : Learning, Meaning and Identity. Cambridge, Cambridge University Press. ISBN 0-52-166363-6
Le numérique : impact sur le cycle de vie du document
Ressi — 22 janvier 2005
Michel Gorin, Haute Ecole de Gestion, Genève
Le numérique : impact sur le cycle de vie du document
Premier colloque EBSI-ENSSIB du 13 au 15 octobre 2004, Montréal (Québec)
Introduction
« La numérisation, la diffusion des formats numériques originaux, les nouvelles méthodes d’indexation et d’analyse du document ainsi que le fonctionnement en réseau changent les données de base de la vie du document qui devient une sorte de phénix incessamment renaissant. Pourtant, le document demeure un concept central pour les professionnels de l’information, notamment parce que c’est l’élément commun entre l’univers du papier et l’univers technologique.
La préoccupation venue du numérique nous amène à réfléchir plus globalement sur le fait qu’un document, quels que soient sa nature, son âge et son utilisation s’inscrit dans le temps et non dans l’éternité, à l’inverse, symboliquement au moins, du monument. Cette dimension temporelle, fortement bouleversée par le numérique, implique des nouvelles façons de faire pour tous les spécialistes de l’information, quels que soient leurs domaines spécifiques d’expertise et les types de documents qu’ils manipulent ».
Cette assez longue citation, extraite du programme de la manifestation susmentionnée, situe bien son enjeu : le numérique continuera de modifier pendant longtemps encore le rapport qu’entretiennent les spécialistes en information documentaire avec les documents et, partant, avec les informations qu’ils contiennent. Dès lors, il est important qu’ils se créent des occasions de partage et de discussion autour de cette importante problématique professionnelle. Le colloque organisé par deux écoles francophones renommées, sous la présidence de Jean-Michel Salaün (ENSSIB)(1) et de Réjean Savard (EBSI)(1), dans le splendide bâtiment des Archives nationales du Québec à Montréal, a parfaitement rempli son rôle : plus d’une centaine de participantes et de participants issus d’une dizaine de pays – professionnels de l’information documentaire (bibliothécaires aussi bien qu’archivistes), étudiants de l’EBSI, chercheurs, professeurs - ont pu écouter une bonne vingtaine d’exposés intégrés dans sept tables rondes thématiques, qui les ont amenés à réfléchir aux défis posés par le numérique.
Les temps du numérique (2)
La conférence d’introduction que se sont partagée Florence Sédes (Université Paul Sabatier, Toulouse); Sylvie Calabretto (INSA, Lyon) et Geneviève Lallich-Boidin (URSIDOC, Lyon 1), s’est attachée à démontrer que la réflexion sur la dimension temporelle est indissociable du document numérique, en raison de la nécessaire et complexe prise en compte des diverses versions des documents. Elles ont également insisté sur le fait que de nombreux acteurs sont concernés par cette problématique : les « conservateurs » (bibliothécaires, archivistes, etc.), les « interprètes » (archéologues, historiens, etc.), les « réalisateurs » (informaticiens, créateurs de programmes de PAO, etc.) et les « diffuseurs » (responsables de portails, éditeurs, etc.). Enfin, elles ont tenté de définir les trois univers et les trois temps du document numérique, ainsi que leurs interactions, qui peuvent être résumés de la manière suivante : • Les trois univers sont l’espace documentaire, formé de documents et des relations qui existent entre eux ; l’univers socio-historique, celui dans lequel se trouvent les auteurs et les « lecteurs » ; l’univers du discours, à savoir l’univers reconstruit par le « lecteur » à partir des discours contenus dans les documents ; • Les trois temps sont le temps de l’espace documentaire ; le temps socio-historique, marqué par des périodes, des dates ; le temps du discours, inscrit par l’auteur et reconstruit par le « lecteur ».
Quelques réflexions sur le cycle de vie du document ont complété cet exposé relativement théorique, qui a bien introduit le sujet décliné ensuite en sept thématiques, évoquées ci-après sans volonté d’exhaustivité, plus ou moins succinctement et en fonction des intérêts particuliers de l’auteur de ce compte rendu - donc en toute subjectivité !
Le cycle de vie, ses dérives et sa régulation
Deux des exposés, consacrés pour l’un au « Cadre de référence gouvernemental en gestion intégrée des documents » au Gouvernement du Québec, et pour l’autre à la gestion des documents numériques dans les universités québécoises, ont démontré que « la belle province » a pris conscience du fait qu’une gestion documentaire rigoureuse est encore plus nécessaire aujourd’hui, en raison de la multiplication des documents numériques.
Le Gouvernement du Québec souhaite ainsi se doter d’une vision, de méthodes et d’outils pour mieux gérer ses documents, tous supports confondus, et le cadre de référence susmentionné est la réponse apportée à ce désir. L’objectif final est bien entendu d’intégrer la gestion documentaire (supports papier et électronique) dans tous les services gouvernementaux, tout en tenant compte des obstacles technologiques et de la culture organisationnelle existante, laquelle nécessite une prise en compte efficace de la notion de gestion du changement. L’exposé d’Yves Marcoux (Université de Montréal) a permis de découvrir que le Québec s’est doté, en juin 2001, d’une Loi concernant le cadre juridique des technologies de l’information, qui donne, dans ses articles 3 et 4, une définition extrêmement intéressante et innovante du document, que je ne résiste pas à soumettre à votre réflexion :
3. Un document est constitué d'information portée par un support. L'information y est délimitée et structurée, de façon tangible ou logique selon le support qui la porte, et elle est intelligible sous forme de mots, de sons ou d'images. L'information peut être rendue au moyen de tout mode d'écriture, y compris d'un système de symboles transcriptibles sous l'une de ces formes ou en un autre système de symboles. Pour l'application de la présente loi, est assimilée au document toute banque de données dont les éléments structurants permettent la création de documents par la délimitation et la structuration de l'information qui y est inscrite. Un dossier peut être composé d'un ou de plusieurs documents. Les documents sur des supports faisant appel aux technologies de l'information visées au paragraphe 2º de l'article 1 sont qualifiés dans la présente loi de documents technologiques. 4. Un document technologique, dont l'information est fragmentée et répartie sur un ou plusieurs supports situés en un ou plusieurs emplacements, doit être considéré comme formant un tout, lorsque des éléments logiques structurants permettent d'en relier les fragments, directement ou par référence, et que ces éléments assurent à la fois l'intégrité de chacun des fragments d'information et l'intégrité de la reconstitution du document antérieur à la fragmentation et à la répartition. Inversement, plusieurs documents technologiques, même réunis en un seul à des fins de transmission ou de conservation, ne perdent pas leur caractère distinct, lorsque des éléments logiques structurants permettent d'assurer à la fois l'intégrité du document qui les réunit et celle de la reconstitution de chacun des documents qui ont été ainsi réunis (3).
Quant aux universités québécoises, celles-ci souhaitent se doter d’un modèle de gestion, de contrôle et de préservation des documents produits sous forme numérique. Elles ont ainsi mandaté le Sous-Comité des archivistes de la Conférence des recteurs et des principaux des Universités du Québec (CREPUQ) pour mener une réflexion approfondie, laquelle a débouché sur la publication, en février 2004, d’un volumineux rapport dont je ne peux que recommander la lecture (4). Ce dernier propose un état des lieux dans les universités québécoises suivi de nombreuses recommandations, puis commente un modèle de gestion des documents numériques et un plan d’action qui peuvent être mis en œuvre de manière personnalisée par chaque établissement universitaire. Le plan d’action, véritable marche à suivre qui se veut délibérément pragmatique, comporte sept étapes principales, que Carole Saulnier (Université Laval) et André Gareau (Université du Québec à Montréal) ont soumises à l’assemblée :
- Constitution d’une équipe pluridisciplinaire
- Identification des besoins spécifiques
- Sélection et acquisition d’un système
- Réalisation d’un projet-pilote
- Evaluation, ajustement et adoption du système
- Elaboration d’une politique institutionnelle et d’un programme
- Déploiement du système ».
Imprimé, visuel, numérique : interactions et harmonisation
Cette table ronde a proposé trois exposés qui se sont attachés à montrer les résultats de recherches menées, respectivement, par James Turner (EBSI), Clarisse Holik (Université de Paris 8) et Marie-Hélène Dougnac (ENSSIB). La première a consisté en une étude portant sur les images animées, plus spécifiquement sur la modélisation du processus de production de films numériques, afin d’identifier la documentation créée tout au long du processus de création. La deuxième s’est efforcée de décrire l’impact du numérique sur le cycle de vie du « conducteur » du Journal télévisé de TF1, le « conducteur » étant la liste de tout ce qui se passe durant le Journal (ordre des reportages, noms des intervenants, minutage, etc.) et devant être archivé au sens du dépôt légal. Le dernier exposé a, quant à lui, montré que le numérique a également un impact sur la durée de vie et sur les modalités d’accès aux documents destinés aux handicapés visuels ; grâce au numérique, ce public dispose désormais de trois modes d’appropriation d’un texte : sonore (voix de synthèse), écrit (grossissement, traduction en braille) et audionumérique (5).
Le document en mutations
Anne-Marie Bertrand (Rédactrice en chef du Bulletin des bibliothèques de France) s’est demandé si le document numérique et l’instabilité qui le caractérise n’impliquent pas, en définitive, que nous fassions le « deuil de la mémoire ». Son analyse des onze différentes éditions (1966 – 2003) de l’ouvrage de référence « Le métier de bibliothécaire » semble en effet démontrer que l’on peut considérer « l’accumulation, la sédimentation des différentes éditions du « Métier » comme une source majeure pour l’histoire de la profession de bibliothécaire – pour l’histoire de l’élaboration de sa culture professionnelle ». Or, « l’instabilité du document en ligne détruit l’idée même de trace » ; le « statut de témoignage » que le document possède pour l’historien se trouve ainsi, désormais, remis en question.
Claudette Hould, chercheuse et historienne de l’art (Université du Québec à Montréal) a, quant à elle, mis l’accent sur l’importance du numérique dans son domaine. L’accès physique aux œuvres d’art, quelles qu’elles soient, exige en effet beaucoup de patience et de moyens financiers, lorsqu’il n’est pas simplement rendu impossible pour des raisons de sécurité et de conservation. La diffusion d’images numérisées de ces œuvres d’art permet ainsi, en quelque sorte, de rentabiliser le coût induit par leur conservation.
Le traitement documentaire
Lyne Da Sylva (EBSI) s’est employée à démontrer que les traitements automatiques (indexation, condensation mono- ou multitextes, classification) sont dignes d’intérêt pour l’accès aux documents numériques éphémères (par exemple : documents momentanés que représentent les réponses obtenues suite à une recherche sur le Web, formulaires sur le Web, pages contenant la une des journaux en ligne, archives de courriels). En effet, même s’ils sont encore aujourd’hui, malgré les progrès enregistrés ces dernières années, de moindre qualité que les traitements réalisés par des professionnels, ils représentent une alternative intéressante pour ce type de documents.
Katarzyna Wegrzyn-Wolska (Ecole supérieure d’ingénieurs en informatique et génie des télécommunications, Fontainebleau) s’est, quant à elle, intéressée à la durée de vie, à l’accessibilité et à l’archivage des pages Web créées dynamiquement, c’est-à-dire pour une demande individuelle, lesquelles disparaissent après consultation (la dénomination d’« étoiles filantes dans l’espace documentaire » leur a d’ailleurs été attribuée par l’auteure de cet exposé, démontrant ainsi que les informaticiens peuvent être poètes à leurs heures !).
Complexité de la gestion des documents numériques
Deux exposés à mentionner ici. L’un présenté par Marc Lebel (Ville de Montréal, Section de la gestion des documents), qui a plaidé pour une conservation permanente, à long terme, de toutes les bases de données élaborées dans le cadre des administrations, étant donné leur importance pour ces dernières. Le second, proposé par Sabine Mas, candidate au doctorat (EBSI), qui a rendu compte d’un aspect de son projet de thèse. Elle a tenté de démontrer le lien qui existe entre le mode d’organisation personnelle des documents électroniques et leur interprétation, en insistant ensuite sur le fait qu’il paraît nécessaire, dans un organisme, de tendre à classer les documents conservés par les employés selon un plan de classification institutionnel.
Documents numériques : problématiques de disponibilité et d’accès
Deux autres exposés à mentionner ici. L’un présenté par quatre chercheurs français : Jean Casenave (Université de Bordeaux 3), Gaio Mauro (UFR Sciences et techniques, Pau), Dagorret Pantxika et Christophe Marquesuzaà (UIT de Bayonne), qui ont salué la « revitalisation » du patrimoine littéraire local et régional grâce la numérisation. A l’aide d’un exemple, ils ont montré que la numérisation puis l’analyse, le « marquage », l’exploitation des textes par des équipes multidisciplinaires (informaticiens, géographes, spécialistes d’une littérature, etc.), rend possible leur utilisation à diverses fins : usage savant, pédagogique ou même touristique.
Quant à Chérifa Boukacem (ENSSIB), elle a estimé que l’intégration des documents électroniques dans les fonds des bibliothèques universitaires françaises a donné une certaine visibilité aux collections papier et, ainsi, en quelque sorte, prolongé leur cycle de vie, grâce à la complémentarité existant désormais entre documents traditionnels et documents électroniques.
Numérique et perspectives africaines
Cette dernière table ronde a permis, une nouvelle fois, de mesurer l’écart existant entre les préoccupations des pays du Nord et celles des pays du Sud. On parle beaucoup de fracture numérique, en particulier depuis le Sommet mondial sur la Société de l’information : il convient, en l’occurrence, de réfléchir non seulement aux problèmes techniques rencontrés par les pays du Sud – en les aidant à rattraper leur retard en matière d’infrastructures - mais aussi aux réjouissantes perspectives, en termes de formation ou de pérennisation des traditions, que les documents numériques offrent aux populations.
Conclusion en style télégraphique (6)
- Le nombre et la qualité des questionnements que le colloque a suscités sont remarquables et témoignent de l’intérêt d’une réflexion permanente sur les nouveaux supports d’information
- L’information sous forme numérique est désormais une réalité, elle n’est plus virtuelle ! Le numérique fait partie de nos vies
- Il y a dix ou vingt ans, on parlait d’« information » et plus de « document », ce dernier terme étant devenu « ringard » ; aujourd’hui, on utilise l’expression « renouveau du document »…
- Le terme « document » a des acceptions très diverses, qui ont un point commun : tout document correspond à une mise en relation d’un auteur, d’un créateur, avec un « lecteur »
- Le « lecteur », justement, est au centre de tous les questionnements, car les réflexions autour du numérique tournent autour de son potentiel d’utilisation
- Le numérique prolonge la vie d’un document, lui confère une seconde vie, voire le « ressuscite » carrément ; ainsi, le numérique démocratise en quelque sorte
- Plusieurs défis peuvent être relevés, en termes
- de création (multiplicité des formats, des langages, des formes)
- d’organisation intellectuelle, de classification, d’indexation (inquiétudes au sujet de l’important écart qui existe entre le nombre de documents numériques produits et les possibilités réelles de mise en valeur de cette nouvelle masse documentaire)
- de préservation sur le long terme
- de crédibilité de l’information (inquiétudes au sujet de la fiabilité de l’information dans son format numérique)
- Le numérique est plein de promesses, mais il nécessite des moyens importants, une réflexion permanente et, surtout, la prise en compte des besoins des pays du Sud, qui ont eux aussi beaucoup à gagner de ces nouveaux supports.
l’accès à certains documents qui n’étaient pas, a priori, destinés à une large diffusion ; il influence alors le potentiel de développement du document
Notes
(1) Ecole de bibliothéconomie et des sciences de l’information, Université de Montréal – Ecole supérieure des sciences de l’information et des bibliothèques, Lyon
(2) Les intertitres correspondent aux intitulés de la conférence introductive et des tables rondes
(3) http://www.autoroute.gouv.qc.ca/loi_en_ligne/loi/annindex.html [page consultée le 9.11.04]
(4) http://www.CREPUQ.qc.ca/documents/arch/Rapport-GGDN.htm [page consultée le 9.11.04]
(5) Pour un exemple concret d’initiative prise dans ce domaine, voir le site de DAISY (Digital Accessible Information SYstem), consortium créé par des bibliothèques proposant des livres parlés, dans le but d’accompagner la transition du livre parlé analogique vers le digital : http://www.daisy.org/about_us/default.asp [page consultée le 9.11.04]
(6) Merci à Jacques Grimard (EBSI) et à Jean-Michel Salaün (ENSSIB), qui ont conclu le colloque par une magistrale synthèse, qui m’a été bien utile pour rédiger ma propre conclusion !
Internationales Symposium für Informationswissenschaft (ISI) an der HTW Chur
Ressi — 22 janvier 2005
Thomas Von Handl, Universität Hildesheim, Allemagne
Internationales Symposium für Informationswissenschaft (ISI) an der HTW Chur
Mit der neunten ISI-Tagung, die vom 6.10. bis zum 8.10 in Chur stattfand, ist die Informationswissenschaft endgültig in der Schweiz angekommen. Nach der jahrelangen Aufbauleistung zur Etablierung von Studiengängen in Chur und Genf folgte nun also auch die informationswissenschaftliche Fachtagung für den deutschsprachigen Raum dem Ruf in die Alpenrepublik und wurde dort erstmals ausgerichtet. Es ist zu erwarten, dass sich diese erfreuliche Entwicklung noch fortsetzt und verstetigt. Zumindest die hohe Teilnehmerzahl und der bemerkenswerte Anteil Schweizer Besucher geben Anlass zu dieser Erwartung.
Die Tagungsorganisation der ISI bestätigte alle Vorurteile über die Schweiz und lief wie ein Uhrwerk. Der Tagungsband ist in der Schriftenreihe des Hochschulverbands Informationswissenschaft (HI) beim Universitätsverlag Konstanz (www.uvk.de) erschienen. Im Rahmen der Tagung fand auch die Mitgliederversammlung des HI statt, in der Marc Rittberger von der HEG Genf zum neuen Vorsitzenden gewählt wurde.
Eingeladene Vorträge
Die vier eingeladenen Redner boten ein breites Sektrum und lösten das Tagungsmotto „Information zwischen Kultur und Marktwirtschaft“ in besonderer Weise ein. Das Thema wurde aus der Perspektive der Politik, der Bibliotheken, der interkulturellen Kommunikation und der Wirtschaft kompetent und kurzweilig beleuchtet.
Wissenschaftliches Programm
Die Bandbreite der Themen und der Methoden in der Informationswissenschaft und ihrer unterschiedlichen Ausrichtungen erzeugten ein Spannungsfeld, das immer wieder neu ausgelotet werden muss.
Information Retrieval-Themen haben traditionell ihren Platz auf der ISI. Michael Kluck vom Informationszentrum Sozialwissenschaften in Bonn berichtete von neueren Entwicklungen bei der GIRT Testdatenbank, die eine sehr wertvolle Ressource darstellt und im Rahmen des europäischen Cross Language Evaluation Forum (CLEF) Einsatz findet. Joachim Griesbaum von der Universität Konstanz interpretierte aktuelle Tendenzen zur Ergänzung der Funktionalität bei Suchmaschinen im Internet. Eine empirische Analyse der Möglichkeiten zur Angabe des Datums bei Suchmaschinen präsentierte Dirk Lewandowski von der Universität Düsseldorf. Robert Strötgen von der Universität Hildesheim berichtete über Weiterentwicklungen im Projekt ASEMOS bei der Übersetzung zwischen Ontologien und Freitexttermen zur Verbesserung der Rechercheergebnisse in heterogenen Digitalen Bibliotheken.
Das Thema Retrieval stellte Christian Wolff von der Universität Regensburg in den größeren Kontext des Dokumentenmanagement. Er stellte ein umfassendes System für die Analyse, die Visualisierung und den Zugriff auf Text-Dokumente vor.
Hagen Engelmann vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme berichtete von der Realisierung eines Beratungssystems auf Basis eines Dialogmodells. Für die Implementierung wurde auf vorhandene Technologie wie Chatterbots und die Artificial Intelligence Modelling Language (AIML) zurückgegriffen.
Eine Anwendung mobile Informationssysteme in Australien hat Christopher Lueg von der Charles Darwin University in Australien entwickelt. Sein System überspielt Busfahrpläne von kleinen Stationen an abgelegenen Haltestellen auf das Mobiltelefon des Benutzers.
Elisabeth Milchrahm von der Karl-Franzens-Universität in Graz untersuchte Stellenanzeigen zum Wissensmanagement aus amerikanischen Online-Jobbörsen. Die Uneinheitlichkeit und schnellen Änderungen der Terminologie sorgen bei Suchenden für Probleme, stellen aber auch die Entwickler neuer Curricula vor Herausforderungen.
Ein sehr ambitioniertes Projekt an der Schnittstelle zwischen Informationswissenschaft und Informatik stellte Ralph Kölle von der Universität Hildesheim vor. In verteilten Programmierteams sollen fehlende Rollen durch Software-Intervention ergänzt werden. Joachim Griesbaum und Wolfgang Semar von der Universität Konstanz ergänzten diese Sektion zum informationswissenschaftlich basierten Einsatz von E-Learning Komponenten in der Ausbildung. Griesbaum berichtete von Erfahrungen bei einer Lehrveranstaltung im Konstanzer K3-System (Kollaboration, Kommunikation, Kompetenz), das kollaborative Bearbeitung der Inhalte und begleitende Evaluierung ins Zentrum rückt. Semar besprach die Anreizsysteme zur Aufrechterhaltung der Motivation in K3.
Das Programm wurde abgerundet durch eine Podiumsdiskussion und eine Sektion zu aktuellen Entwicklungen beim Urheberrecht.
Gerhard Lustig Preis
Seit langem hat nicht nur die studentische Teilnahme an der ISI Tradition, vielmehr stellt auch die Auswahl der besten studentischen Abschlussarbeiten der letzten zwei Jahre einen Höhepunkt dar. Dieser Programmteil wird immer gut besucht und viel diskutiert. Die Qualität der studentischen Beiträge war auch in Chur wieder sehr hoch und zeigte das breite Spektrum der Ausbildung. Den ersten Platz belegte Tobias Müller mit einer Arbeit im Rahmen des K3-Systems der Universität Konstanz. Den zweiten Platz erreichte die Vertreterin der Universität Regensburg, Susanne Mühlbacher die eine Arbeit im Rahmen von Fahrerassistenzsystemen vorstellte. Den dritten Platz vergab die Jury an Pia Schnetzler vom Studiengang Internationales Informationsmanagement der Universität Hildesheim, die Systeme zur Eigennamenerkennung im multilingualen Information Retrieval evaluiert hatte. Die Preisgelder in Höhe von insgesamt 1000.- Schweizer Franken hatte die Firma Eurospider gespendet und von deren Gründer und Leiter, Peter Schäuble überreicht.
Social Event
Ein Höhepunkt der ISI war der Gesellschaftsabend und dies nicht nur wegen der dort präsentierten Alphörner. Vor der Verleihung des Gerhard-Lustig-Preises an die Nachwuchsgeneration wurden zwei Lichtgestalten der Informationswissenschaft zum 60ten Geburtstag geehrt. Für Rainer Kuhlen hatte bereits im Sommer ein Festsymposium stattgefunden, auf dem die ihm gewidmete Festschrift überreicht worden war. Aber auch auf der ISI wurde der Anlass noch gewürdigt und Wolfgang Semar, der Betreuer der HI-Schriftreihe, überreichte Rainer Kuhlen das erste Exemplar seines neuen Buches zur Informationsethik. Die Ehrung von Jürgen Krause übernahm Christian Wolff. Nach einer kurzen Darstellung des Lebenslaufs übergab er dem Jubiliar das erste Exemplar einer Festschrift, die in der HI-Reihe beim UVK erscheinen wird und von Maximilian Eibl, Christian Wolff und Christa Womser-Hacker herausgegeben wird. Jürgen Krause sprach in seinem Dankeswort die ihn prägende sogenannte 68er Generation an, die unter anderem Festschriften vehement ablehnte. Allerdings habe er seine Einstellung mittlerweile in vielen Bereichen relativiert und freue sich nun sehr über die Ehrung durch eine ebensolche Festschrift.
Nach einer durchweg gelungenen Veranstaltung plant man gern bereits den Besuch der Folge-Konferenz. Die nächste ISI richtet im Herbst 2006 die Fachhochschule Köln aus.
Retours sur le colloque "Partager pour gagner" à la Haute Ecole de Gestion (HEG) de Genève, 30 septembre 2004
Ressi — 22 janvier 2005
Hélène Madinier, Haute Ecole de Gestion, Genève
Retours sur le colloque "Partager pour gagner" à la Haute Ecole de Gestion (HEG) de Genève, 30 septembre 2004
Le 30 septembre 2004 s’est tenu à la Haute Ecole de Gestion (HEG) de Genève un colloque (1) sur la gestion des connaissances, qui a rassemblé plus de 100 participants, représentant des grandes entreprises, des PME, des associations et organismes à but non lucratif, ainsi que des administrations cantonales et communales.
Le thème de gestion des connaissances (connu surtout sous son nom anglais, knowledge management, abrégé en KM) a été choisi car il suscite actuellement un fort intérêt dans les domaines de la gestion, de l'informatique et de la gestion de l'information, tout en demeurant un peu abstrait, en Suisse romande.
Pourquoi partager des connaissances? Comment favoriser cette création et ce partage? Quels sont les modèles à suivre, les écueils à éviter, les outils, et les modes d’organisation à adopter? Quels sont les liens avec la veille, avec les réseaux? Quels sont les métiers les plus concernés? Telles étaient les questions auxquelles l’ensemble des interventions a tenté de répondre.
Le programme comportait une séance en plénière et des sessions parallèles, ce qui permettait à la fois de refléter la diversité des expériences, méthodes, formes et outils du KM, et d’offrir un plus grand choix aux participants.
Les sessions portaient respectivement sur les pratiques du KM, le management, les réseaux/communautés et les outils du KM.
La notion de KM
La séance plénière était animée par Jean-Yves Prax, expert français en KM et directeur de l’entreprise de conseil Polia Consulting.
Pour Jean-Yves Prax, le KM a comme intérêts majeurs de favoriser la transmission du savoir, et l'émergence de l'innovation.
La notion de KM trouve ses fondements théoriques notamment dans le corpus scientifique des sciences cognitives. Elle trouve également sa légitimité dans les pratiques: pratiques dues aux nouvelles technologies (Internet essentiellement) favorisant une meilleure information, de nouvelles formes de travail comme le travail à distance et asynchrone, bousculant les notions classiques de hiérarchie; pratiques liées aux changements économiques comme l'entreprise étendue (échanges avec fournisseurs, partenaires, clients), le développement du secteur tertiaire, et les perspectives prochaines de départs à la retraite massifs de cadres expérimentés (papy-boom).
Le knowledge management se rattache à deux notions fondamentales: la connaissance et les collectifs humains.
A partir de là, J.-Y. Prax a précisé:
- quels sont les supports de l'apprentissage: l'écoute, la pratique, l'échange etc,
- quels sont les types de communautés et leurs fonctions: échanger, capitaliser, travailler ensemble,
- quels sont les outils utiles pour les soutenir,
- quelles méthodes existent pour les faire vivre: capitalisation, communautés de pratiques, annuaires d'expertise, cartographie des compétences.
Le cercle du savoir se décline ainsi:
Créer les connaissances nouvelles (innovation), accéder aux connaissances existantes et les exploiter (améliorer les processus), pérenniser et transmettre les connaissances cruciales (construction d'un capital de connaissances), ce qui peut permettre de créer des connaissances nouvelles etc..
Mais il ne peut y avoir de partage des connaissances sans un management approprié: comme l'expliquait Paul Vanderbroeck dans son intervention, pour instaurer un réel partage de connaissances au sein de l'entreprise, il faut souvent faire évoluer les modes de management et se transformer en entreprise apprenante: entreprise qui favorise l'apprentissage à partir des erreurs, et qui permet de créer un climat de confiance.
Récits d'expériences
La dimension ressources humaines du KM a été présentée par la banque Lombard Odier Darier Hentsch et Cie au travers de son projet de gestion des compétences.
Le but du projet était d'offrir un outil unique et partagé pour les processus RH: d'une part rendre le collaborateur propriétaire de ses données et de l'autre, donner au manager un accès facilité aux données de son équipe.
Ce projet a permis une meilleure compréhension (et donc, intégration) des ressources humaines et de leur rôle dans l'entreprise.
L'utilisation du KM comme outil de résolution de problèmes a été exposée par le consultant André Boder, qui montrait qu'avant tout, le KM sert à mettre à plat des processus, à caractériser des situations, à amener les collaborateurs d'un ou de plusieurs services, à expliciter des modes de fonctionnement, à mieux communiquer, et à être plus performant.
Le KM c'est aussi et surtout des échanges entre communautés et autres réseaux. A cet égard, l'expérience récente de la Chambre de commerce et d'industrie de Grenoble, commentée par Isabelle Brun-Buisson, est représentative.
La CCI de Grenoble a mis en place et anime la plate-forme collaborative Ecobiz, permettant l’échange de connaissances et d'expériences entre entreprises et autres acteurs économiques de l’Isère. Cette plate-forme abrite une vingtaine de communautés thématiques, qui reçoivent régulièrement des informations ciblées et se rencontrent plusieurs fois par année.
L'expérience de Rezonance, entreprise organisatrice des «First Tuesday» est aussi intéressante. Elle organise régulièrement des rencontres-événements sur un thème spécifique et réunit tous les acteurs intéressés (entreprises, étudiants, administrations). Ces rencontres, qui sont prolongées par un site Internet, favorisent ainsi la création de réseaux. Sa responsable, Geneviève Morand, expliquait l'importance fondamentale des réseaux et du réseautage dans la réussite économique, ainsi que la façon de développer ses aptitudes en réseautage.
Enfin, la partie sur les outils comportait plusieurs démonstrations: de l'outil Knowings, de Mayetic Village, et de la plate-forme Wiki mise en place par des professeurs d'informatique à la HEG.
Mais tous ces intervenants s'accordaient sur le fait que l'outil doit être au service du projet de KM et non s'y substituer, ce qui est parfois une des causes d'échec des projets de KM.
Les liens entre gestion des connaissances et gestion de l'information
Les liens entre gestion des connaissances et gestion de l'information étaient mentionnés lors de l'exposé principal (Jean-Yves Prax), évidents dans l'exposé sur le projet de veille réalisé auprès de quelques PME de Suisse romande (Evelyne Deferr), et détaillés plus précisément dans la description des différents rôles intervenant lors d'un projet de gestion des connaissances (Hélène Madinier).
Si l'on résume l'exposé concernant les différents rôles et plus spécifiquement le rôle de gestionnaire de l'information dans un projet de KM, il faut rappeler que la gestion des connaissances est "un ensemble de modes d'organisation visant à créer, collecter, organiser, stocker, diffuser, partager, utiliser et transférer la connaissance dans l’entreprise" (CIGREF, 2000) (2). Cette connaissance est aussi bien représentée par des documents, internes ou externes à l'entreprise, que par des expériences et savoir-faire des collaborateurs.
Même si la connaissance explicite n'est qu'une partie de la connaissance -l'autre étant la connaissance tacite-, on voit nettement quel peut être le rôle des gestionnaires de l'information lorsqu'il s'agit de la collecte, de l'organisation, du stockage et de la diffusion des documents externes et internes à l'entreprise, et donc des connaissances explicites.
La gestion de ces connaissances est donc a priori une préoccupation permanente et ancienne des professionnels de l'information.
Malgré cela, force est de constater qu'ils ne sont pas -loin s'en faut- systématiquement associés aux projets de KM; souvent, ils doivent y revendiquer leur place.
La pratique amène à constater deux tendances:
Tout d'abord, les responsables de projets de KM font parfois appel à des professionnels de l'information pour leurs compétences en matière d'organisation, de classification de l'information, ou de recherche d'information.
Parallèlement, la profession se diversifie et élargit sa sphère d'activité. Si, traditionnellement, les gestionnaires de l'information intervenaient principalement sur l'information externe ou non directement opérationnelle, on constate désormais que le rôle du gestionnaire de l'information affecte également l'information stratégique de l'organisation, l'information directement utile, et cela en mettant en oeuvre des dispositifs correspondant au plus près à des besoins spécifiques, comme par exemple:
- l'organisation d'une veille,
- la mise en place d'un records management,
- la création d'un répertoire de ressources électroniques,
- la conception et réalisation d'un site Intranet ou Internet.
Son rôle évolue ainsi de support à un projet de gestion de connaissances, à celui de responsable d'un projet de gestion des connaissances explicites de l'organisation.
Conclusion
De l'ensemble des exposés, on retiendra ces quelques points qui caractérisent à la fois les conditions d’existence d'une gestion des connaissances et ses chances de succès:
- Le KM suppose l'existence et la structuration d'un collectif humain:
- ce collectif peut être aussi bien intra que inter-entreprise,
- il faut prendre conscience de ce collectif et exploiter ses possibilités en créant une culture d'entreprise appropriée.
- Le partage de connaissances nécessite une communication approfondie et structurée au sein de ce collectif, et en particulier:
- le partage d'expérience, l'explicitation du non-dit, sa verbalisation, qui induit légitimation, reconnaissance et motivation,
- des outils spécifiques au service de ce collectif (sites Intranet, Internet, portails...) structurant et prolongeant cette communication.
- Le KM suppose une gestion et une animation de ces collectifs, qui font le lien entre ses membres:
- tout d'abord une médiation, soit via un expert externe, ou un responsable de projet, qui met à plat, fait expliciter et coordonne
- ensuite via un animateur ou un coordinateur, qui fédère, coordonne, maintient les liens de manière continue au sein d'une communauté.
Ce sont à ces conditions que peut exister et se maintenir une gestion des connaissances efficace au sein d'une organisation, et donc une meilleure cohésion, reconnaissance, motivation, et finalement une amélioration des performances.
Notes
(1) Fichiers des présentations des interventions: http://campus.hesge.ch/symposiumkm/telechargement_skm.asp
(2) CIGREF: Club informatique des grandes entreprises françaises http://www.cigref.fr/cigref/
Editorial n°1
Ressi — 22 janvier 2005
Editorial n°1
RESSI - Revue électronique suisse de science de l'information - est un périodique que nous voulons scientifique, en libre accès et gratuit. Né du constat qu'aucune revue au contenu réellement scientifique n'existait dans ce domaine, RESSI a pour ambition de promouvoir le développement de la discipline dans notre pays.
Le choix de l'électronique comme unique support reflète la volonté du comité de rédaction de lui donner une portée plus large, sans qu'il soit nécessaire de gérer des abonnements et des listes de diffusion. Publiée deux fois par an, la revue privilègie la publication d'articles d'auteurs vivant en Suisse, mais elle reste ouverte aux auteurs d'autres pays.
Une des ambitions de RESSI est de créer un forum favorisant le dialogue entre acteurs oeuvrant dans la discipline, d'où la décision d'accepter aussi des articles rédigés en allemand ou italien voire en anglais même si la langue française est privilègiée parce que la science de l'information francophone a besoin de mieux se faire connaître, notamment en Suisse. Les diverses rubriques consultables sur le site vous donnent les conditions de fonctionnement de RESSI.
Les articles qui composent ce premier numéro reflètent l'orientation de notre revue : être une chambre d'écho des recherches menées dans notre discipline.
Concernant les deux articles de fond de ce numéro, celui de Jacqueline Deschamps évoque la question de la création de la revue dans le contexte disciplinaire de la science de l'information, et celui de Jean-Philippe Accart, présente une forme de communauté de pratiques qu'est le travail en réseau en s'appuyant sur le Réseau des Bibliothèques de Suisse Occidentale.
Les comptes-rendus de colloques occupent une place importante dans ce numéro, que ce soit celui de Michel Gorin sur le numérique et le cycle de vie du document, celui d'Hélène Madinier sur le knowledge management ou celui de Thomas Mandl sur le Symposium für Informationswissenschaft à Coire. Stephan Holländer nous propose encore la recension de l'ouvrage Wissen in Aktion.
Nous remercions les auteurs qui ont contribué à la parution de ce numéro. Encore imparfait dans ses aspects techniques et modeste dans ses contributions, nous avons bon espoir que vos envois d'articles contribueront à remplir abondamment les prochains numéros.
Nous remercions également le Comité de lecture ainsi que la Haute école de gestion de Genève qui accepte l'hébergement de la revue sur son site.
Le Comité de rédaction
- Vous devez vous connecter pour poster des commentaires
Wissen in Aktion : Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft
Ressi — 22 janvier 2005
Wissen in Aktion
Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft: Festschrift für Rainer Kuhlen von Stephan Holländer
Unter den diesjährigen Neuerscheinungen auf dem Buchmarkt weckt die Festschrift für Rainer Kuhlen Neugier. Gelingt es, die thematische Breite seines Schaffen in einer Publikation zu reflektieren?
Die Herausgeber, Rainer Hammwöhner, Marc Rittberger und Wolfgang Semar haben es sich zur Aufgabe gemacht, eine Festschrift zum 60. Geburtstag Rainer Kuhlens zu konzipieren. In sechs Abschnitten mit den Themen „Experimentelles Information Retrieval“, „Informationstheorie“, “Information im Kontext“, „Informationsversorgung“, „Wissensmanagement“ und „Komparatives Informationsmangement“ wird der Anspruch gemacht, die Breite des publizierten Schaffens von Rainer Kuhlen thematisch abzudecken. Die Konzeption der Herausgeber darf in ihrer thematischen Strukturierung als gelungen bezeichnet werden.
Die Autoren der Festschrift sind Rainer Kuhlen in vielfältiger Weise verbunden: Studenten, Doktoranden und Habilitanden der Konstanzer Informationswissenschaft; Kollegen und Kolleginnen aus dem Hochschulverband für Informationswissenschaft sowie zugewandter Orte aus Verbänden und anderen Universitäten beleuchten verschiedene Themen in den sechs Abschnitten. Dies sei an einigen ausgesuchten Beiträgen näher betrachtet.
Im Abschnitt „Experimentelles Information Retrieval“ beleuchtet Harald Reiterer die Wichtigkeit der Visualisierung von Recherchen und der Rechercheergebnisse bei der effizienten Nutzung von Information Retrieval- und Data Mining Systemen. Er weist zu Recht auf die Wichtigkeit der benutzerorientierten Sichtweise bei der Entwicklung von visuellen Suchsystemen hin. In einem weiteren Beitrag in diesem Abschnitt erläutern Bernard Bekavac und Joachim Griesbaum Verfahren zur Dokumentenbeschaffung und Sortierung von Ergebnislisten bei der Benutzung von Internetsuchdiensten und stellen die verschiedenen Suchdiensttypen vor. Was ist Information ohne Wahrheit und Wissen?
Der Abschnitt „Informationstheorie“ umfasst vier Beiträge. Erwähnt sei Rainer Hammwöhners Beitrag zum Informationsbegriff. Er beleuchtet die Beziehung zwischen Information und Wissen. Anhand von sieben Thesen vertritt er die Meinung, dass der Informationsbegriff nicht vom Wissens- und Wahrheitsbegriff zu trennen ist. Wolf Rauch geht in seinem Beitrag zu Kuhlens bekanntem Informationsbegriff (Information = Wissen in Aktion) auf die Notwendigkeit ein, den Informationsbegriff um eine zeitliche Dimension zu erweitern, was in verschiedenen Wissenschaftsbereichen auch geschehen ist.
In einem weiteren Abschnitt mit dem Titel “Information im Kontext“ sei der Beitrag von Marc Rittberger zum Thema „Vertrauen und Qualität in Informationsdienste“ hervorgehoben. Er definiert Kriterien für das Vertrauen, das Informationsdiensten entgegengebracht wird. Er zeigt in seinem Beitrag die Abhängigkeit von Vertrauen und Qualität in verschiedenen Kontexten punkto Vollständigkeit, Zuverlässigkeit, Transparenz auf. Dies stellt einen wertvollen Ansatz für die weiterführende Diskussion um den Qualitätsbegriff dar.
Der Beitrag von Thomas Seeger im Abschnitt „Informationsversorgung“ wirft einen Blick zurück in die Frühzeit der Dokumentationsbewegung im letzten Jahrhundert. Der Autor erläutert die Visionen und Konzepte der Gründerväter Otlet und LaFontaine, die zu einer Abspaltung der frühen Dokumentationsbewegung vom Bibliothekswesen führte. Die Ausführungen von Otlet zur virtuellen Präsentation von Wissen dank „Tele-Reading“ und „Tele-Scription“-Maschine sind höchst informativ und verdienen als Vorläufer der Internettechnologie zur Kenntnis genommen zu werden.
Achim Osswald schildert die Entwicklung der eBook-Angebotskonzepte beginnend mit Produkten für propietäre Wiedergabesysteme bis hin zu webbasierten Angeboten. Die Untersuchung der Frage, ob diese Angebote von Bibliotheken genutzt werden, veranlasst den Autor zur Feststellung, dass Bibliotheken aufgrund ihrer Erfahrung mit elektronischen Zeitschriften das Angebot höchst selektiv nutzen. Der Autor führt aus, dass die mittel- und langfristigen Perspektiven für den Bestandsaufbau als spekulativ zu bezeichnen sind. Dieser Ansicht ist beizupflichten.
Im Abschnitt „Wissensmanagement“ wird in verdienstvoller Weise Praxisberichten Raum gegeben. Dies ist zweifellos ein Pluspunkt der vorliegenden Festschrift. So stellen Jubran Rajub und Claus Rautenstrauch das Wissensmanagement-Tool TecNavigator vor. Der in der Einleitung kurz geführte Diskurs zum Informationsbegriff hatte man an anderer Stelle schon prägnanter und profunder gelesen. Die Beschreibung des Einsatzes von TecNavigator in einer Bank ist ein interessanter Beitrag zum Praxiseinsatz von Wissensmanagementtools. Leider schreiben die Autoren nichts zur Akzeptanz des Tools bei den Nutzern der Bank.
Die drei im Abschnitt „Kooperatives Informationsmanagement“ zusammengefassten Beiträge setzen sich mit einem sehr aktuellen Thema auseinander. Die Informationskompetenz soll durch die Nutzung heterogener Informationsquellen gestärkt und unter anderem Studierenden helfen, Informationskompetenzdefizite abzubauen.
Den Herausgebern ist es mit ihrer Konzeption der Festschrift zweifellos gelungen, thematisch die Breite des Schaffens von Rainer Kuhlen gerecht zu werden. Die publizierten Beiträge sind nicht durchwegs von gleicher hochkarätiger Qualität. Einige wenige Beiträge wurden mit einer „heissen Feder“ geschrieben. Die herausragenden Arbeiten in der Festschrift machen jedoch dieses Manko vergessen. Dem Verlag wäre zu wünschen gewesen, dass er seine Lektoratsaufgabe etwas genauer wahrgenommen hätte. Orthographiefehler und die Formatierung als Blocksatz in einzelnen Beiträgen hätten so nicht unbesehen für die Buchausgabe übernommen werden dürfen. Sonst ist die Publikation eine runde Assemblage, bei der man gerne das Glas hebt und sich in die lange Reihe der Gratulanten einreiht, die dem Jubilar zuprostet.
HAMMWÖHNER, Rainer, RITTBERGER, Marc, SEMAR, Wolfgang (Hg.) (2004). Wissen in Aktion : Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft: Festschrift für Rainer Kuhlen. Konstanz , UVK Verlagsgesellschaft. Schriften zur Informationswissenschaft, Band 41. ISBN 3-89669-704-8.

La revue Ressi
- N° Spécial DLCM
- N°21 décembre 2020
- N°20 décembre 2019
- N°Spécial 100ans ID
- N°19 décembre 2018
- N°18 décembre 2017
- N°17 décembre 2016
- N°16 décembre 2015
- N°15 décembre 2014
- N°14 décembre 2013
- N°13 décembre 2012
- N°12 décembre 2011
- N°11 décembre 2010
- N°10 décembre 2009
- N°9 juillet 2009
- N°8 décembre 2008
- N°7 mai 2008
- N°6 octobre 2007
- N°5 mars 2007
- N°4 octobre 2006
- N°3 mars 2006
- N°2 juillet 2005
- N°1 janvier 2005