Sommaire - N°1, Janvier 2005
Etudes et recherches :
Evénements :
Ouvrages parus en science de l'information :
Editorial n°1
RESSI - Revue électronique suisse de science de l'information - est un périodique que nous voulons scientifique, en libre accès et gratuit. Né du constat qu'aucune revue au contenu réellement scientifique n'existait dans ce domaine, RESSI a pour ambition de promouvoir le développement de la discipline dans notre pays.
Le choix de l'électronique comme unique support reflète la volonté du comité de rédaction de lui donner une portée plus large, sans qu'il soit nécessaire de gérer des abonnements et des listes de diffusion. Publiée deux fois par an, la revue privilègie la publication d'articles d'auteurs vivant en Suisse, mais elle reste ouverte aux auteurs d'autres pays.
Une des ambitions de RESSI est de créer un forum favorisant le dialogue entre acteurs oeuvrant dans la discipline, d'où la décision d'accepter aussi des articles rédigés en allemand ou italien voire en anglais même si la langue française est privilègiée parce que la science de l'information francophone a besoin de mieux se faire connaître, notamment en Suisse. Les diverses rubriques consultables sur le site vous donnent les conditions de fonctionnement de RESSI.
Les articles qui composent ce premier numéro reflètent l'orientation de notre revue : être une chambre d'écho des recherches menées dans notre discipline.
Concernant les deux articles de fond de ce numéro, celui de Jacqueline Deschamps évoque la question de la création de la revue dans le contexte disciplinaire de la science de l'information, et celui de Jean-Philippe Accart, présente une forme de communauté de pratiques qu'est le travail en réseau en s'appuyant sur le Réseau des Bibliothèques de Suisse Occidentale.
Les comptes-rendus de colloques occupent une place importante dans ce numéro, que ce soit celui de Michel Gorin sur le numérique et le cycle de vie du document, celui d'Hélène Madinier sur le knowledge management ou celui de Thomas Mandl sur le Symposium für Informationswissenschaft à Coire. Stephan Holländer nous propose encore la recension de l'ouvrage Wissen in Aktion.
Nous remercions les auteurs qui ont contribué à la parution de ce numéro. Encore imparfait dans ses aspects techniques et modeste dans ses contributions, nous avons bon espoir que vos envois d'articles contribueront à remplir abondamment les prochains numéros.
Nous remercions également le Comité de lecture ainsi que la Haute école de gestion de Genève qui accepte l'hébergement de la revue sur son site.
Le Comité de rédaction
Jacqueline Deschamps, Haute Ecole de Gestion, Genève
La création d’une revue scientifique est un défi à plusieurs niveaux. Un défi éditorial, étant donné les multiples difficultés auxquelles se heurte généralement ce genre d’entreprise. Un défi académique aussi, compte tenu de la concurrence qui règne dans ce domaine entre les instances institutionnelles de production et de diffusion de la connaissance scientifique (universités ou sociétés scientifiques) dont les revues constituent l’une des expressions les plus importantes. Mais si la publication d’une nouvelle revue scientifique constitue une véritable gageure, c’est surtout parce que, en dehors de la contribution d’un nouvel espace de publication des progrès de la recherche et du travail théorique de la discipline concernée, une telle revue doit, par l’originalité des approches, des analyses et des traitements de son objet d’étude, se distinguer des autres revues avec lesquelles elle entre en compétition.
Bien sûr, nous n’avons pas la naïveté de croire que la naissance d’une nouvelle revue scientifique en Suisse suffise par elle-même à susciter une révolution épistémologique ni même celle de croire que le comité de lecture peut espérer la sélection et la publication d’articles inaugurant une nouvelle façon de penser la discipline. Nous avons bien plus modestement le désir de créer un forum pour favoriser le dialogue entre les divers acteurs, d’exprimer des sensibilités, des interrogations, des réflexions, des doutes, quelle que soit l’insertion professionnelle des auteurs, au-delà de la traditionnelle distinction entre bibliothèques, archives ou documentation mais sous la bannière de la science de l’information.
Quant à savoir dans quelle mesure une revue scientifique relève le défi, cela dépend naturellement en premier lieu des auteurs qui lui apportent sa matière première, laquelle dépend elle-même des spécialistes qui acceptent d’assumer le rôle aussi déterminant que difficile d’experts, c’est-à-dire de décider si un travail réunit ou non les conditions définies par la communauté scientifique et expressément requises par le comité de rédaction afin qu’il puisse être publié dans la revue. Nous avons d’un côté, la responsabilité de la qualification scientifique et la volonté politique des responsables de la revue et de l’autre, le rôle plus occulte mais sûrement catalyseur, de l’institution qui héberge la revue et le contexte sociopolitique dans lequel elle s’inscrit.
S’agissant de l’implication de la portée scientifique du comité de rédaction qui puise essentiellement son autorité dans la reconnaissance dont jouissent les experts de la revue au sein de la communauté scientifique, nous pouvons supposer qu’elle est à peu près la même que dans d’autres disciplines. Là où les choses diffèrent sensiblement c’est dans le rôle que joue moins ouvertement d’une part l’institution à qui revient la diffusion de la nouvelle revue et d’autre part les conditions socioculturelles dans lesquelles cette édition est entreprise.
Nous pouvons dans les grandes lignes opérer une distinction entre les revues qui constituent les organes éditoriaux officiels de différentes associations scientifiques nationales et les revues qui sont publiées par des sociétés scientifiques de composition et/ou de vocation internationale ou multinationale. L’élément déterminant ici réside dans le fait que RESSI est l’émanation d’une communauté scientifique qui ne s’est délibérément pas constituée en association (une de plus !) mais ressemblerait plutôt à un « collège invisible » d’enseignants et d’acteurs de terrain, rassemblés autour des problématiques de la science de l’information. Il y a dans la création de RESSI un désir de faire reconnaître une discipline qui mérite une meilleure visibilité. Les engagements de la vie professionnelle nous ont amenée à rencontrer des collègues, à partager leurs préoccupations et à nous rendre compte que dans le monde francophone, nous avons tous besoin de nous ancrer dans notre discipline, de la légitimer, de la faire évoluer.
La science de l’information est une discipline académique pour certains, un terrain d’application ou un champ interdisciplinaire pour d’autres, elle est souvent associée à la communication avec qui elle entretient des rapports qui ne sont pas toujours aussi limpides qu’on veut bien le croire. C’est aussi intentionnellement que nous parlons de Science de l’information en optant pour science au singulier parce qu’en Suisse, à la différence de la France, nous n’avons pas jumelé science de l’information et communication en « Info-com ». Tout au plus pourrions-nous parler d’info-doc s’il fallait s’allier à un autre champ alors que la science de l’information est en soi une entité complète qui inclue bibliothéconomie, archivistique et documentation. L’utilisation même des expressions « science de l’information » ou « sciences de l’information » n’a pas été établie une fois pour toutes. Pour Le Coadic, c’est la science de l’information... mais par exemple pour Benoît, ce sont les sciences de l’information. « Il semble que l’extension illimitée des phénomènes associables à ce mot décourage a priori toute synthèse, et disqualifie l’idée même d’une discipline. Aussi parle-t-on des sciences de l’information et de la communication, les SIC, mais cet insurmontable pluriel a de quoi rebuter les esprits rigoureux. »(1). Ou encore, pour Estivals (2) « Le pluriel de sciences de l’information et de la communication couvre l’imprécision. L’argument qui consiste à dire que nos domaines ne sont pas assez avancés pour qu’on puisse les délimiter est une pirouette qui dissimule mal notre ignorance. Est-il besoin de dire que le risque est grand, dans le milieu scientifique de n’être pas pris au sérieux ? »
Discipline dont on dit qu’elle se cherche tout en ayant une légitime existence, en France, elle fait partie du paysage universitaire où elle est enseignée au premier, deuxième et troisième cycle et confère tous les grades universitaires. En Suisse, elle n’apparaît officiellement dans aucun cursus universitaire et c’est cette situation qui nous interpelle.
Son existence est incontestable et pourtant on remarque un besoin constant de se positionner scientifiquement comme s’il fallait prouver qu’il s’agit bien d’un domaine scientifique. « La science se fait, elle agit, elle produit ; elle ne s’observe pas elle-même comme science en train de se faire. S’il doit exister « une science de l’information », va-t-il donc lui être demandé de faire justement tout cela, tout ce que le reste de la science ne fait pas, sans davantage s’occuper de tout ce « reste » que la science sait elle-même si bien faire ? (3) La science de l’information aurait-elle des raisons d’être considérée comme un terrain d’application et non comme un champ scientifique autonome ? L’ambiguïté est aussi entretenue par ses propres acteurs puisqu’on voit déjà qu’il y a un désaccord dans la terminologie fondamentale. Dès lors, nous savons bien que notre tâche n’est pas facile et risque de nous entraîner dans des débats délicats mais c’est un pari que nous prenons.
On peut se poser la question du lien des bibliothécaires avec la science de l’information. Les bibliothèques sont peu souvent l’objet de recherche universitaire. Pourtant, la recherche qui exige production et investissement intellectuel est susceptible de donner une légitimité dont les effets structurent l’identité professionnelle. On peut aussi penser que la visibilité des bibliothèques par la recherche - fondamentale ou appliquée - représenterait aussi un atout significatif, tant pour les bibliothécaires que les instances institutionnelles.
On peut toujours nous rétorquer que le professionnel de l’information aux prises avec ses difficultés quotidiennes ne ressent pas la nécessité de s’intéresser à une discipline, quelle qu’elle soit. Ce sont avant tout des professionnels qui ont des besoins bien concrets et les réponses à leurs préoccupations quotidiennes se trouvent la plupart du temps dans des solutions pragmatiques. Devrions-nous dire, de concert avec Calenge à propos de la documentation que nous avons-là une « science pratique » à organiser autour d’interrogations concrètes ? Il est vrai que les connaissances qui relèvent des savoirs et celles qui relèvent des pratiques n’ont pas toujours bien été définies et peut-être faut-il parler de discipline à forte dimension pratique ? Parlons plutôt de théorisation, de formalisation ou encore de modélisation ; les lois sont une chose trop sérieuse pour affirmer que la science de l’information possède des lois, tout au plus peut-on parler de modèle.
Notre désir de promouvoir la discipline vient également d’une situation institutionnelle particulière liée à un projet de grande envergure en Suisse : la création des Hautes Ecoles Spécialisées (HES). La création des HES marque un tournant pour les spécialistes de l’information dans toute la Suisse, en modifiant leur système de formation, en leur conférant une reconnaissance fédérale et un titre protégé.
Les HES, dénommées aussi University of Applied Sciences, constituent désormais un élément important du système éducatif suisse. Elles se veulent en phase avec les standards internationaux et il est donc tout naturel pour elles de prôner la mise en œuvre de la « Déclaration de Bologne » et donc d’entamer toute une série de réformes. La Conférence suisse des HES (CSHES) propose ainsi un modèle d’année académique et de formation modulaire. Les HES constituent un véritable laboratoire d’études aussi bien sur le plan de la modification du système de formation professionnelle (et sa promotion dans l’enseignement de niveau tertiaire) que sur le plan de la revalorisation des formations qui y sont dispensées.
La réforme de l’éducation tertiaire est intervenue en Suisse plus tardivement que dans les pays de la Communauté européenne. Paradoxalement, la bonne qualité de la recherche universitaire en sciences et en ingénierie et la qualité de la formation professionnelle qui permettait à la majorité des jeunes adultes en formation professionnelle d’entrer sur le marché du travail, n’ont pas incité à la mise en route de changements importants. Sous l’augmentation de la demande individuelle et sociale d’éducation tertiaire, alimentée par les compétences exigées par le marché du travail, la vigueur croissante du savoir comme force motrice de l’activité et des performances économiques, des changements touchant l’ampleur, la nature et la valeur de la recherche dans son acception large et d’une dynamique « européenne », l’éducation tertiaire a fait alors l’objet de réformes importantes. La création des HES en Suisse, élément de nature conjoncturel, correspond aussi à un mouvement d’harmonisation des formations universitaires au niveau européen.
La transformation des écoles supérieures en Hautes écoles spécialisées vise à élargir l’offre de formations universitaires en Suisse en y incluant des filières de formation du niveau des hautes écoles, de caractère à la fois scientifique et pratique et à renforcer l’euro compatibilité des diplômes. L’un des objectifs qui a présidé à la naissance des HES a été aussi d’élargir la fonction des écoles qui jusque-là était limitée à l’enseignement en leur confiant des tâches de recherche appliquée, de développement et de prestations de services à l’intention de l’économie (transfert de connaissances et de technologies). Si la coopération avec les milieux économiques ou institutionnels existait déjà, il en allait tout autrement pour la recherche.
La création des HES va élargir et compléter le domaine des hautes écoles. Les enseignants de ces écoles sont donc appelés à exercer des activités de recherche appliquée et de développement. La pratique d’activités de recherche et de développement est un moyen de ne pas prendre de retard sur les progrès de la science et sur l’évolution de la pratique professionnelle.
Notre propos n’est pas d’écrire l’histoire de la science de l’information ; des auteurs l’ont fort bien fait avant nous et leurs écrits ont d’ailleurs nourri notre réflexion aussi nous ne faisons que mettre en lumière quelques aspects qui nous semblent importants. Nous voulons montrer que la création de notre revue s’inscrit dans un contexte scientifique spécifique et dans un développement social et historique.
Lorsqu’on parle de science de l’information la première question que l’on pose généralement est : la science de l’information est-elle une discipline scientifique ? Et ceux qui posent cette question tentent bien souvent de vous prouver que non.
Généralement les disciplines scientifiques se distinguent par un vocabulaire spécifique, savant, hermétique au profane. La science de l’information utilise des vocables simples, appartenant au langage ordinaire, et compréhensibles par tous tels, information, livre, document, bibliothèque, film, photographie, lecteur, etc. Existe t-il un véritable vocabulaire scientifique ? Y a-t-il un vocabulaire théorique qui serait propre à la discipline ? Nous avons bien conscience de soulever des questions récurrentes qui ont déjà marqué les premières années d’existence de la discipline mais qui restent prégnantes aujourd’hui.
Une discipline désigne une matière enseignée, une branche de la connaissance. Dans une définition plus complète, on trouve « une discipline scientifique est une branche du savoir qui étudie une série de situations en ayant pris une perspective particulière, soutenue par des théories, des présuppositions, des réseaux scientifiques, des institutions, des contrôles sociaux, des appareils de mesure, des technologies, des publications, des diplômes universitaires, etc. » (4). Selon cette définition, oui la science de l’information est une discipline scientifique.
On peut, à juste titre s’étonner de voir que la science de l’information a été élevée au rang de « science » seulement quelques décennies après sa création. Prenant comme point de départ cette affirmation de Bourdieu (5), « la science n’a d’autre fondement que la croyance collective dans ses fondements que produit et suppose le fonctionnement même du champ scientifique », la science de l’information vient alors s’intégrer dans la famille des sciences et spécifiquement des sciences humaines et sociales.
Le critère de validité généralement retenu est celui de l’existence sociale d’une discipline reconnue comme science par la communauté de ceux qui la pratiquent, par les institutions académiques et par la société. En dehors des moments critiques de rupture épistémologique ou paradigmatique, qui engendrent de nouveaux équilibres sociaux autour de nouvelles définitions de la science, l’activité scientifique routinière s’identifie à l’ensemble des pratiques d’une communauté unie par des consensus théoriques et méthodologiques et par une vision commune du monde comme nous l’apprend Kuhn.
Dans le cas de la science de l’information, les consensus théoriques et méthodologiques ne sont pas complètement stabilisés, ce qui fait généralement dire que la science de l’information est une science en constitution. Kuhn insiste sur le caractère social du paradigme : il est propre à une communauté, c’est ce que tous les chercheurs d’un même domaine ont en commun et ce que l’on enseigne aux étudiants. Pour qu’il y ait science, il faut donc un objet et des méthodes scientifiques, des techniques, des services, etc. C’est un ensemble de phénomènes.
Qu’est-ce que la science de l’information ? Les définitions lexicales permettent de donner une description et de délimiter des frontières aux sujets couverts par le champ, mais elles ne peuvent en donner une compréhension plus approfondie. « Information science is that discipline that investigates the properties and behavior of information, the forces that govern the flow and use of information, and the technique, both manual and mechanical, of processing information for optimal storage, retrieval and dissemination» (6).
La science de l’information est un champ de pratique professionnelle et de recherche scientifique traitant du problème de la communication des enregistrements du savoir parmi les humains, dans le contexte du besoin social, organisationnel et individuel pour l’usage de l’information. Les débats sur la définition « propre » de la science de l’information peuvent paraître stériles. La science de l’information, comme science, et comme savoir théorique professionnel, étant finalement définie par les problèmes qu’elle soulève et les méthodes utilisées pour les résoudre.
La science de l’information est un objet qui intéresse nombre d’auteurs, elle est l’objet de rencontres scientifiques et pourtant elle ne semble pas rassembler la communauté scientifique dans un même consensus mais se maintient dans une nébuleuse aux contours encore flous. Il est un consensus sur lequel la communauté des chercheurs s’entend, c’est la classification dans la catégorie sciences humaines et sociales. Le caractère de science sociale avait déjà été avancé par Cossette à propos de la bibliothéconomie, mais en la désignant comme une science sociale dont l’objet est plus restreint que les autres sciences sociales et limitée à un milieu particulier, la bibliothèque. Elle présente un aspect particulier avec un aspect pratique plus développé, elle est à la fois science et art.
D’après Bourdieu (7) « le champ des sciences sociales est dans une situation très différente des autres champs scientifiques ; du fait qu’il a pour objet le monde social et qu’il prétend en produire une représentation scientifique, chacun des spécialistes y est en concurrence non seulement avec les autres savants, mais aussi avec les professionnels de la production symbolique (écrivains, hommes politiques, journalistes) et plus largement avec tous les agents sociaux qui, avec des forces symboliques et des succès très inégaux, travaillent à imposer leur vision du monde social ».
Le flou relatif à propos de la dénomination de la discipline, que nous avons mentionné au préalable, atteste l’existence de conflits sous-jacents à propos des frontières qui séparent la science de l’information des disciplines traditionnelles. Il se traduit également dans les diverses conceptions concernant l’objet de la science de l’information.
L’objet d’étude de la science de l’information est encore à l’heure actuelle matière à débat et loin d’être unanimement partagé au sein de la communauté scientifique, divisée qu’elle est entre plusieurs approches théoriques de l’univers informationnel et donc de l’objet même de la discipline. A cette instabilité correspond une certaine fragilité de ses fondements intellectuels. La science de l’information s’intéresse avant tout à l’élaboration sociale et au partage du savoir. Tout type de savoir étant concerné, qu’il s’agisse de savoir pratique, technique, scientifique, encyclopédique. Quant à l’élaboration et au partage, ils se réalisent dans des contextes sociaux et culturels divers que ce soit une communauté scientifique, professionnelle, culturelle, nationale, internationale ou une organisation humaine telle une entreprise, une université, etc. Pour Le Coadic (8), la science de l’information a pour objet « l’étude des propriétés générales de l’information (nature, genèse, effets) c’est-à-dire plus précisément l’analyse des processus de construction, de communication et d’usage de l’information et la conception des produits et des systèmes qui permettent sa construction, sa communication, son stockage et son usage ». C’est la vision défendue par Taylor, Goffman, Zunde qui la définissent comme une science empirique qui cherche à établir des principes généraux afin d’expliquer, de quantifier et de prédire des phénomènes. Selon l’acception nord-américaine défendue par Brookes ou Shera, la science de l’information a pour objet scientifique l’information à travers le message, sa forme, ses codes. Pour Saracevic ou Salton, l’objet est limité à un type d’information, l’information scientifique et technique. Fondin (9) définit l’objet de la science de l’information comme « le système d’échange entre différents acteurs autour d’une recherche d’information dont on veut comprendre le fonctionnement et surtout le rôle qu’y joue chaque acteur, pour éventuellement intervenir dessus ». Varet la définit comme « une discipline rigoureuse » et, pour cet auteur, c’est en édifiant une science de l’information que nous saurons un jour ce qu’est l’information pas avant, car si l’objet était connu avant que d’être étudié, cela voudrait dire que nous n’avons aucun besoin d’en instaurer la connaissance.
L’objet scientifique de la science de l’information nous paraît bien être la compréhension d’un processus d’échange, de partage qui relève de la préoccupation de la récupération de l’information (connaissance communiquée), quelle qu’elle soit (technique, culturelle, etc.), quel que soit son support (physique ou électronique), son cadre (individuel ou collectif), la raison (gratuit ou utilitaire) et dont les éléments essentiels sont en priorité les hommes, avant les techniques. La science de l’information s’intéresse à une activité humaine finalisée, elle est donc une discipline d’ordre communicationnel et elle appartient bien aux sciences humaines et sociales.
La science de l’information présente trois caractéristiques générales qui marquent son évolution. On peut aussi les voir comme des problématiques que traite, ou en tout cas que devrait traiter, la science de l’information.
- La science de l’information est de nature interdisciplinaire : cependant les relations entre les diverses disciplines sont changeantes et ne sont pas figées.
- La science de l’information est inexorablement liée à la technologie de l’information. La technologie contribue grandement à l’évolution de la science de l’information tout comme à la société de l’information dans son ensemble.
- La science de l’information est, avec d’autres champs, un acteur de l’évolution de la société de l’information. La science de l’information a une dimension sociale et humaine forte, au-dessus et au-delà de la technologie.
Vickery et Vickery et Saracevic ont souligné que la science de l’information se structure en deux champs relativement autonomes, eux-mêmes composés de plusieurs sous-champs. Lorsqu’en 1998, Buckland célèbre le cinquantième anniversaire du Journal of the American Society of Information Science, il évoque les deux traditions qui selon lui existent dans le champ anglo-saxon de la science de l’information : les approches fondées sur les documents, les enregistrements signifiants et celles fondées sur l’utilisation de résultats de techniques formelles (techniques ou mathématiques). Nous ne possédons pas d’étude d’envergure concernant les auteurs francophones et leurs domaines de recherche, mais nous distinguons également deux courants de recherche, l’un rattaché aux aspects techniques, à la conception de systèmes et l’autre tourné vers les aspects humains, les pratiques socioculturelles. En France, l’appartenance au domaine de l’information ou de la communication est toujours polémique, peut-être à cause du rapprochement de la science de l’information et de la communication dans une même section universitaire ?
L’autonomie du champ est un autre élément fondamental, mais dans le cas d’une science humaine en constitution, celle-ci ne peut être que faible. Autant l’élaboration conceptuelle, que la légitimation, doit s’opérer en se tournant vers l’extérieur du champ disciplinaire, en direction d’autres sciences. Selon nous, cela ne dévalorise en rien ce champ de savoir, l’une de ses forces consistant justement à savoir se tourner avec discernement vers les champs extérieurs.
Le terme de « information science » fut employé dès 1960 et remplaça progressivement le terme de « documentation ». Buckland et Liu le définissent comme relevant à la fois de la sphère d’application spécialisée (bibliothèques, archives, techniques documentaires, etc.) et d’un univers de recherche.
Pourtant cet univers de recherche ne semble pas si facile à circonscrire. « Nos études sont tiraillées entre la monographie, voire la microscopie des phénomènes et une vision plus contextuelle et transversale ; entre l’instantané, ou la fascination pour la nouveauté technique, et la longue durée de l’histoire ; entre la description empirique et l’appel à des concepts et à des paradigmes, seuls capables de favoriser le dialogue étendu et transdisciplinaire que nous appelons de nos vœux » (10).
Influencée par la théorie de Shannon, la problématique classique des recherches en science de l’information est selon Fondin celle du codage et du décodage de « l’information – contenu » et de sa bonne transmission. Il s’ensuit soit une préoccupation orientée vers le « document – message » souvent d’ailleurs assimilée au lieu de conservation, soit une « approche – objet » vers le système technique qui en assure le traitement et la transmission, soit une « approche – système ». Les professionnels ont encore une autre expression pour exprimer le changement de logique de fonctionnement, ils parlent de « logique de stock vers une logique de flux », slogan à connotation économique. Dans le domaine organisationnel, les chercheurs ont un intérêt commun pour les systèmes d’information mais, informaticiens et spécialistes de l’information sont également intéressés par l’interaction homme - ordinateur. En même temps qu’ils élargissent le contexte des activités d’information, les spécialistes de l’information examinent de nouveau la nature de l’information qu’ils traitent.
En faisant remonter les origines de la science de l’information au travail des documentalistes, dans la première moitié du vingtième siècle, on met une forte emphase sur le texte comme forme de base de l’information. Aujourd’hui, il est admis que l’on doit considérer d’autres représentations de l’information, comme égales aux phrases verbales. Cet élargissement du contexte dans lequel les spécialistes de l’information placent leur travail est naturellement lié à l’extension d’activités. Il serait bon, de ce point de vue, de comparer les sujets couverts à l’heure actuelle, dans les revues de science de l’information avec les sujets traités auparavant. Ceci donne une autre raison de penser qu’il est probablement peu profitable d’essayer de tracer une frontière autour de la science de l’information : ses limites changent constamment.
Le problème de la méthodologie en science de l’information est un domaine encore peu exploité. Du fait que le champ d’étude est vaste, la science de l’information embrasse différentes méthodologies. Quand on les examine, on voit qu’elles couvrent quelques techniques aisément reconnaissables en sciences sociales.
Dans le processus de cognition, l’homme utilise des règles afin de comprendre la réalité, de trouver des solutions à des tâches que la vie lui impose. Ces règles universalisent les résultats de la pratique et de la cognition. Dans la science, par exemple, ce sont les moyens d’accès à de nouvelles connaissances ou encore, en économie c’est un ensemble de mesures qui visent à atteindre les objectifs de la production. Cet ensemble de règles qui s’appuie sur l’expérience de la vie ou les connaissances scientifiques porte le nom de méthode. La méthode est donc constituée par l’ensemble des principes, des procédés d’étude théorique et d’action pratique qui permet d’atteindre les objectifs fixés et de résoudre les tâches voulues. Une méthode est déterminée par la nature des phénomènes ou les objets auxquels elle s’applique mais elle a ceci de particulier qu’elle sert à expliquer tous les domaines de la nature, de la société, de la pensée, c’est-à-dire des problèmes de caractère universel.
L’appartenance aux sciences humaines et sociales incite à classer la science de l’information dans la catégorie « sciences molles » par opposition aux « sciences dures ». Or, la distinction n’est pas si évidente. « La présence des sciences de l’information dans la « base » Pascal de l’Institut de l’information scientifique et technique (INIST) jusqu’à la fin des années 1990 n’est pas non plus étrangère à la situation » (11). De même la science de l’information figure dans la base de données INSPEC, plus spécifiquement dédiée aux sciences de l’ingénieur et plus proche des sciences dures.
Dans quelle mesure peut-on dire qu’un sujet est considéré « hard » ou « soft » ? Hard signifierait quantitatif et rigoureux tandis que soft signifierait plutôt qualitatif et plus approximatif ? Pour un sujet comme la science de l’information, qui possède à la fois des aspects « durs » et des aspects « mous », ceci pose une question majeure et justifie peut-être le fait qu’il n’y ait pas de consensus autour d’un paradigme méthodologique standard ?
Sur une cartographie virtuelle de la discipline, certains pics sont fondés sur des méthodologies dures (analyses bibliométriques par exemple), et d’autres sur des méthodologies molles (études d’usagers par exemple), dans quelle mesure peut-on développer le terrain intermédiaire ? Les questions de base qui intéressent la science de l’information peuvent, dans certains cas, recourir à un mélange d’approches dures et molles pour une résolution adéquate. Par exemple, la recherche documentaire a deux composants – comment les usagers décident de ce qu’ils veulent comme information et comment, une fois cette décision prise, décider de l’obtention de l’information. En termes méthodologiques, le premier est l’issue « molle » et le second la « dure ». Pour résoudre la plupart des problèmes en science de l’information, il est parfois nécessaire d’avoir recours à deux types de méthodologies mais selon nous, c’est plus une force qu’une faiblesse pour la discipline. La science de l’information, s’est appliquée depuis une dizaine d’années au moins, à tirer parti des possibilités d’améliorer les analyses quantitatives et qualitatives concernant les relations dynamiques qui unissent des collectifs d’objets au sein de diverses communautés et leurs modes de représentations graphiques (analyses des communautés, cartographies de recherches, etc.) dans un ensemble de recherches formalisées dans la scientométrie. Des évolutions sont aussi perceptibles du côté de l’ingénierie documentaire, renforcées par l’apparition des mémoires numériques portées par Internet. L’importance grandissante des méthodes d’analyses statistiques et la nécessité de décrire les phénomènes d’émergence de formes stables et instables au cœur de corpus hétérogènes ont renforcé l’usage de modèles comme les graphes conceptuels par exemple. Les pratiques, les comportements et les usages se développent aussi en interaction directe avec l’environnement.
Les chercheurs ont développé leurs propres approches théoriques de façon indépendante. Par exemple, les débats sur la théorie en bibliométrie n’ont pas grand-chose en commun avec les systèmes d’information. Ceci signifie-t-il que la base théorique de la science de l’information comprend essentiellement un ensemble de théories sans rapport entre elles, qui sont simplement sélectionnées pour leur application au sujet en considération ? Tout au long de la variété des théories centrales qui traduisent certainement un besoin, il y a de la place pour une théorie « surplombante » qui essaie de rassembler les différents composants de la science de l’information. Dans la mesure où les composants de base du monde moderne de l’information sont des êtres humains et des machines, on peut s’attendre à ce qu’une métathéorie les relie entre eux.
La science de l’information est presque invariablement vue comme appartenant à la catégorie « appliquée ». Ceci est vrai en termes de «pratique de recherche», mais soulève le rôle de la théorie dans la science de l’information. La plupart des sujets appliqués tendent à prendre leurs théories dans des sources diverses. Les pionniers de la science de l’information ont vu ceci comme une menace importante pour leur champ nouvellement établi. Ils pensaient qu’une base théorique agréée était nécessaire pour que le sujet développe une voie consistante et compréhensible. D’un côté, ils craignaient que la science de l’information ne devienne une étiquette pour une collection de compétences pratiques, sans cohérence théorique sous-jacente. D’un autre côté, ils sentaient qu’une telle base théorique serait impossible à formuler à moins que les activités d’information ne soient étudiées et discutées avec leurs propres termes, non avec les termes de leur possible application.
Dans les pays francophones, les domaines scientifiques et technologiques sont séparés et l’on retrouve cette séparation entre « recherche fondamentale » et « recherche appliquée ». Cette séparation se retrouve en science de l’information où la recherche est plus appliquée (c’est-à-dire visant à améliorer) que théorique (visant à comprendre), et que les chercheurs sont en fait plus ingénieurs que chercheurs. On comprend aussi qu’il y a là sujet de tensions entre les chercheurs, comme le fait remarquer Metzger (11) : « On observe des oppositions, des rivalités, parfois exacerbées … et la communauté de ces chercheurs… est tiraillée, sinon écartelée, entre plusieurs tendances… et les chercheurs qui se réclament de l’une ou l’autre ?de ces approches? d’entre elles inclinent à adopter les cadres théoriques et les méthodes des secteurs scientifiques qui leur paraissent proches et dont, souvent ils proviennent ».
La question de la méthodologie nous renvoie à la question des différences entre les disciplines, les sciences dites « dures » arguant qu’il existe une « méthode scientifique » unique et générale. Or, il existe des différences profondes entre les disciplines, portant sur la méthodologie scientifique. On s’accorde pour reconnaître que les sciences humaines sont moins avancées que les sciences de la nature et, effectivement, il est vrai que certains corps de connaissances ne sont pas acceptés par tous les chercheurs d’une discipline comme c’est le cas dans des sciences « dures ». Mais, peut-on dire que cette absence de consensus est réellement liée à un développement insuffisant ?
Pour savoir où va la science de l’information, il est nécessaire de regarder son histoire pour déterminer les courants qui se dessinent. Depuis quelques années, bibliothécaires et documentalistes se penchent sur leur histoire (Histoire des bibliothèques, Histoire de la documentation, Histoire de l’information scientifique et technique etc.). La base scientifique de la discipline constitue un thème récurrent, parmi les enseignants et les chercheurs. Bien que les problèmes relatifs à l’information et à son maniement aient toujours existé, la science de l’information est essentiellement une création de la seconde moitié du vingtième siècle. Le terme « information scientist » apparaît dans les années 50 et décrit un scientifique qui est un professionnel de l’information. En 1955, Farradane invente le terme « science de l’information » impliquant qu’il représente une discipline académique plutôt qu’une activité professionnelle. L’ « information scientist » est décrit comme étant proactif en cherchant, numérisant la littérature et présentant les résultats à ses clients. Il est aussi caractérisé comme ajoutant de la valeur à son travail en évaluant la littérature qu’il a cherché, ignorant le matériel de mauvaise qualité et attirant l’attention sur certaines références clés. Dans les années 50, le mot scientifique a une image attirante en Grande-Bretagne en étant associé aux technologies de pointe ; les « information scientists » sont impliqués dans les renseignements militaires, dans la recherche médicale ou encore la production d’électricité à bas prix ! On trouve aussi dans l’histoire de la science de l’information un lien entre les dénominations « special librarians » et « information officers ». Dans les pays francophones, on utilise le terme documentaliste pour information scientist.
La science de l’information a émergé avec la seconde guerre mondiale, en parallèle à l’informatique. Cette émergence correspond au phénomène de l’explosion de l’information. L’information a toujours été capitale, quelle que soit la société et l’époque, mais son rôle et son importance ont varié. Avec l’évolution de l’ordre social vers la société post-industrielle ou ce que nous appelons communément la société de l’information, le savoir et l’information assument un rôle central dans chacun des aspects de la vie.
Vakkari et Cronin ont souligné l’incertitude que les praticiens montrent envers ce que l’on appelle l’information. Si l’opposition entre aspect technique (la conception de systèmes) et aspect humain (étude des pratiques socioculturelles et capacités cognitives) partage le champ disciplinaire, cette opposition semble partager aussi les praticiens (opposition entre les bibliothèques universitaires et les bibliothèques de lecture publique). Mais l’articulation entre ces aspects peut, peut-être, constituer un nouvel enjeu pour la science de l’information. Il semble qu’actuellement aucune nouvelle théorie n’émerge du champ de la science de l’information pour développer de nouvelles voies de pensée. Dans le champ académique, les programmes de recherche anglo-saxons, par exemple, se sont plutôt centrés sur des problèmes pratiques comme la fourniture de documents à un nombre croissant d’étudiants. Les programmes sont concentrés sur la construction de modèles pour le futur des bibliothèques et investiguent des nouvelles voies de création et d’accessibilité à des sources d’information en développant le concept de bibliothèque virtuelle ou « hybrid library ».
Nous ne pouvons terminer cette réflexion, sans évoquer les liens entre la bibliothéconomie, la communication et la science de l’information.
Les relations entre la bibliothéconomie et la science de l’information sont souvent ambiguës et floues. Dans ce débat récurrent, la science de l’information apparaît généralement comme une discipline à portée théorique beaucoup plus grande que la bibliothéconomie ou la documentation, celles-ci étant perçues comme des domaines professionnels. « The aim of librarianship at whatever intellectual level it may operate is…to bring to the point of maximum efficiency the social utility of man’s graphic records, wether the patron served is a child absorbed in his first picture book or the most advanced scholar engaged in some esoteric inquiry » (12).
Dans le Dictionnaire encyclopédique des sciences de l’information et de la communication, la bibliothéconomie est définie comme « l’ensemble des processus, règles, moyens humains et financiers à mettre en œuvre pour offrir les meilleurs produits et/ou services, au moindre coût, en tenant compte des besoins des consommateurs (clients ou usagers du service de la bibliothèque) ». Ou encore pour Line, c’est un ensemble composite de connaissances, de compétences et de pratiques qui sont pour la plupart tout aussi utiles dans d’autres domaines professionnels. Calenge l’aborde avec quatre définitions recouvrant l’ensemble du concept :
Bibliothéconomie et science de l’information ont en partage le rôle social et l’utilisation effective des enregistrements sur tous supports, par les individus. Mais il y a aussi des différences significatives, essentiellement dans la manière d’aborder les problèmes. En bibliothéconomie, les problèmes soulevés sont avant tout pratiques. Le bibliothécaire cherche une solution pour résoudre son problème sans référer forcément à un modèle théorique. Les outils et méthodes utilisés relèvent avant tout de la technologie.
Ces divergences conduisent à la conclusion que bibliothéconomie et science de l’information sont deux champs distincts dans des relations interdisciplinaires. Ce n’est pas que l’une soit moins bonne que l’autre, mais les oppositions se situent dans la sélection et/ou la définition des problèmes posés et les paradigmes de référence. Bibliothéconomie et science de l’information sont bien reliées mais dans des champs différents.
Une profession s’identifie généralement avec un objet ou un champ d’action précis or, le bibliothécaire ne se définit pas par rapport à la bibliothéconomie (encore moins à la science de l’information), mais comme un professionnel des bibliothèques. Ce lien ne remet pas en cause les tâches propres et les caractéristiques principales d’un métier. Le rôle premier du bibliothécaire est bien de gérer des connaissances ou plus globalement une partie du savoir de l’humanité. L’opposition entre bibliothéconomie et science de l’information est un faux débat, la bibliothéconomie peut juste dans certains de ses aspects, toucher à certains champs de la science de l’information. Même si elle n’est pas « science » au sens strict, la bibliothéconomie peut entreprendre une démarche scientifique. Il faut un modèle théorique pour faire une observation et c’est en construisant ce modèle qu’elle prend une dimension scientifique. Il ne s’agit pas du modèle au sens mathématique mais de la formalisation de scénarios d’analyses et de procédures réutilisables dans diverses situations. La bibliothéconomie se fonde sur la pratique et donc le débat opposant bibliothéconomie et science de l’information serait un faux débat, la science de l’information étant discipline et la bibliothéconomie pouvant, dans certains de ses aspects toucher au champ de cette discipline. « Les sciences de l’information, les sciences humaines ou sociales, n’ont pas besoin de la bibliothéconomie pour poursuivre leur projet, alors que la bibliothéconomie a besoin de ces sciences, sans pouvoir s’identifier à elles ». (13)
Toute science a été précédée d’une technique qui lui a fourni des problèmes, un matériel et des moyens de contrôle. La bibliothéconomie, contrairement à la plupart des autres sciences sociales, a surtout développé le côté pratique en négligeant l’aspect théorique. Ainsi, la bibliothéconomie a placé la théorie et les principes de la discipline en dehors de la profession, à l’extérieur de la sphère d’influence des bibliothécaires eux-mêmes. La bibliothéconomie a pourtant le mérite d’offrir un langage commun et le partage de techniques ce qui donne aux bibliothécaires identité et reconnaissance.
Le regard du spécialiste de l’information se porte sur l’information comme telle, celui du bibliothécaire se porte sur le support. Le champ d’exercice du spécialiste de l’information est la gestion de l’information où qu’elle soit, celui du bibliothécaire est la bibliothèque. On peut toujours mettre en avant les théories diverses de la science de l’information : la théorie de Shannon, la loi de Bradford ou celle de Zipf-Mandelbrot, etc., ou encore une méthode propre comme la bibliométrie. La science de l’information se caractérise par l’étude du phénomène du transfert de l’information et la bibliothéconomie se préoccupe de ce qui se passe dans les bibliothèques. « La science de l’information apporte à la bibliothéconomie et à l’archivistique un cadre théorique plus large, un contexte, une perspective holistique qui encourage la réflexion et la recherche » (14).
Tout se passe comme si la discipline était tiraillée entre d’une part, une science de l’information partie intégrante de la démarche des sciences sociales et donc appelée à respecter les règles de la rigueur épistémologique dans la construction autonome de l’objet, et, d’autre part, une science de l’information plus portée sur l’ingénierie documentaire, confortée qu’elle peut être dans cette voie par une demande plus ou moins pressante qui la pousse à offrir des « solutions » à des problèmes documentaires. Reste à se demander comment gérer cette tension. On pourrait se demander si l’on n’éviterait pas des malentendus en procédant à l’identification plus précise des différentes postures avec d’un côté des enseignants – chercheurs en science de l’information de type « social scientists » et de l’autre, des spécialistes de l’information, ingénieurs d’un savoir pratique spécialisés dans les questions documentaires. Cette distinction poserait la séparation entre ce qui relève d’abord de la recherche des savoirs et ce qui appartient au champ de la pratique documentaire.
Si les relations de la science de l’information et de la bibliothéconomie sont floues, celles qui concernent la communication ne sont pas aussi limpides qu’il y paraît.
Pourquoi, par qui, dans quelles conditions rassembler dans un même ensemble les sciences de la communication et celles de l’information alors qu’elles appartiennent à deux mondes qui fonctionnent presque toujours ailleurs de façon séparée ?
Les protagonistes qui ont présidé à la naissance officielle de la discipline dans les années 70 en France, ont hésité entre diverses appellations telles que « Sciences des représentations » ou encore « Sciences des significations ». Ceci montre que, même s’ils étaient attirés par une même réflexion théorique, ils ne poursuivaient pas les mêmes buts. Si certains avaient pour préoccupation l’institutionnalisation des formations et de la recherche, d’autres ont continué à fonctionner intellectuellement dans leur discipline d’origine. La terminologie retenue, tout en favorisant l’ouverture intellectuelle a aussi entretenue une certaine ambiguïté. L’association des sciences de l’information et celles de la communication (SIC) - que l’on appelle couramment info-com aujourd’hui - permet de servir les intérêts de divers groupes de spécialistes sans prendre une position définitive sur l’épistémologie du domaine. Cette position explique peut-être que la structuration du domaine a mis quelques années à se faire et les spécificités des SIC ne s’imposent pas sans difficulté.
On peut définir l’objet de la science de la communication ainsi : « La science de la communication cherche à comprendre la production, le traitement et les effets des symboles et des systèmes de signes par des théories analysables, contenant des généralisations légitimes permettant d’expliquer les phénomènes associés à la production, au traitement et aux effets » (Chaffee et Berger, cités par Lazar (15) ).
Un noyau dur des études en communication réside dans l’histoire des technologies du traitement et de la transmission des messages. Ce noyau déborde de l’histoire exclusivement en direction d’une médiologie qui va examiner l’outil de transmission ou le média, sous toutes ses facettes et tous ses aspects (sémiologiques, pragmatiques, systémiques, imaginaires).
Les études en communication s’intéressent aux usages, aux effets symboliques et, par la logique des médias, c’est l’interpersonnel et le social qui entrent en jeu. La communication est partout, elle est « comme un gros nuage que les vents poussent et déchirent, et qui plane sur à peu près tous les savoirs » (10).
Wolton rejette l’existence d’une discipline : « La communication est un objet de connaissance interdisciplinaire, à la mesure de sa dimension anthropologique, et cette dimension de carrefour doit être préservée pour éviter une spécialisation, apparemment rassurante mais en fait réductrice et appauvrissante ». Wolton recommande de se servir du capital d’expérience et de connaissance des disciplines qui participent du champ de recherche, de favoriser la production de connaissances et non la description, de penser la communication dans son contexte et de contribuer à la construction du milieu scientifique en favorisant les revues.
Le couplage des deux disciplines n’a peut-être pas été toujours favorable à la science de l’information. On constate aujourd’hui en France, que les laboratoires et les équipes de recherche qui se revendiquent expressément de la science de l’information sont moins nombreux que ceux qui se réclament des sciences de la communication et la communauté de la science de l’information – documentation est moins nombreuse que celle des sciences de la communication.
Dans ce contexte, il va de soi que répondre à la question « pourquoi RESSI ? » est aussi malaisé que nécessaire, pour des raisons inhérentes à l’essence même de la connaissance informationnelle plutôt qu’à la conjoncture dans laquelle s’inscrit la création d’une nouvelle revue scientifique.
Répondre à cette question est nécessaire parce que nous devons examiner tout ce que nous venons de dire et le mettre en perspective avec la capacité de la nouvelle revue à promouvoir la réflexion épistémologique, la confrontation des pratiques méthodologiques et l’échange des points de vue théoriques tels qu’ils émergent, s’appliquent et se produisent dans la sphère scientifique suisse en premier lieu et internationale ensuite. Mais répondre à cette question est en même temps difficile parce que, outre la modestie élémentaire qu’exige la déontologie scientifique des responsables d’une telle initiative et la modération que leur impose le sens commun, il paraît arrogant de prétendre que l’organe éditorial d’une communauté à peine née dans un petit pays, qui n’a, à son actif, qu’une tradition « récente » en matière de science de l’information peut réussir là où de l’avis partagé d’éminents confrères peu de résultats probants ont à ce jour été enregistrés au niveau international. RESSI ne se pose pas en concurrente des revues professionnelles dont les objectifs sont d’ailleurs différents des nôtres mais elle complète le paysage informationnel suisse en le dotant d’une nouvelle tribune.
RESSI se propose donc de contribuer à cet effort avec toutes les forces qu’elle pourra puiser dans la faveur de son public de lecteurs, dans la confiance de ses auteurs et dans le soutien des membres du comité de lecture. C’est pourquoi elle ouvre ses pages à toutes les tendances et domaines de la science de l’information dans l’espoir d’accueillir dans chacun de ses numéros des articles reflétant des théories concurrentes, des méthodologies diverses et des orientations épistémologiques différentes. Cette volonté de pluralisme n’est pas synonyme de rabais scientifique, autrement dit si RESSI est ouverte à tous les aspects et les points de vue, elle n’est pas pour autant disposée à accueillir des opinions personnelles non fondées ou des données de recherche lacunaires. Le niveau scientifique des membres du comité de lecture, appelés à expertiser les textes qui seront proposés, constitue une garantie suffisante du sérieux avec lequel nous avons l’intention de nous acquitter de cette tâche difficile. Car il s’agit d’offrir à la communauté suisse et internationale une nouvelle tribune sur laquelle viendront se rencontrer, s’affronter et se mesurer les expressions de la science de l’information avec l’espoir de contribuer à l’impression d’un souffle nouveau à la connaissance informationnelle.
Bibliographie
(1) BENOIT, Denis. Introduction aux sciences de l’information et de la communication. Paris : Ed. d’Organisation, 1995
(6) BORKO, H. Information science : what is it ? American Documentation, January 1968, 19 (1), p. 3 - 5
(10) BOUGNOUX, Daniel Sciences de l’information et de la communication : textes essentiels. Paris : Larousse, 1993
(7) BOURDIEU, Pierre. La cause des sciences. Comment l’histoire sociale des sciences peut-elle servir le progrès de ces sciences. Actes de la recherche en sciences sociales, 1995, n° 106-107, p. 3-10
(5) BOURDIEU, Pierre. Le champ scientifique. Actes de la recherche en sciences sociales. 1976, 2-3, p. 99
BOURE, Robert. Quelle histoire pour les sciences de l’information et de la communication ? In. BOURE, Robert (Ed.). Les origines des sciences de l’information et de la communication : regards croisés. Villeneuve d’Ascq : Presses universitaires du Septentrion, 2002. P. 17-44
BUCKLAND, Michael, LIU, Zimmimg. History of Information Science. Annual Review of Information Science and Technology (ARIST).1995, vol. 30, p. 385- 415
(13) CALENGE, Bertrand. Peut-on définir la bibliothéconomie ? essai théorique. Bulletin des Bibliothèques de France, 1998, t. 43, n° 2, p. 8-20
COSSETTE, André. Humanisme et bibliothèques : essai sur la philosophie de la bibliothéconomie. Montréal : ASTED, 1976
(14) DESCHATELETS, Gilles. Bibliothéconomie vs science de l’information :…Science de l’information. Documentation et bibliothèques, 1994, juillet/septembre, p. 167-168
EAST, H. Towards the schism : Information officers at the Royal Society Scientific Information Conference, 1948. JASIS, 1998, 24, p. 271-275
(2) ESTIVALS, Robert. Editorial. Schéma et schématisation, 1983, 4ème trim.n° 19, p. 5-8
(9) FONDIN, Hubert. La science de l’information : posture épistémologique et spécificité disciplinaire. Documentaliste – Sciences de l’information, 2001, vol. 38, n° 2, p. 112-122
(4) FOUREZ, Gérard, ENGLEBERT-LECOMTE, Véronique, MATY, Philippe. Nos savoirs sur nos savoirs : un lexique d’épistémologie pour l’enseignement. Bruxelles : De Boeck, 1997
KUHN, Thomas. La structure des révolutions scientifiques, Paris : Flammarion, 1972. (1ère éd. 1962)
LAMIZET, Bernard, SILEM, Ahmed (Dir.). Dictionnaire encyclopédique des sciences de l’information et de la communication. Paris : Ellipses, 1997
(15) LAZAR, Judith. La science de la communication. Paris : Presses universitaires de France, 1992
(8) LE COADIC, Yves-François. La science de l’information. Paris : PUF, 1994
LINE, Maurice B. Le métier de bibliothécaire : un ensemble de pratiques confuses et discontinues. Bulletin des Bibliothèques de France, 1998, t. 43, n° 2, p. 44-48
(11) METZGER, Jean-Paul. Les trois pôles de la science de l’information. In Viviane Couzinet [et al.]. (Dir.). Recherches récentes en sciences de l’information : convergences et dynamiques : actes du colloque international organisée les 21 et 22 mars 2002 à Toulouse… Paris : ADBS, 2002. P. 17 - 28
OCDE. L’enseignement tertiaire en Suisse : examens des politiques nationales d’éducation. Paris : OCDE, 2003
RAUZDUEL, Rosan. Dialectique et savoir systémique. Bern : P. Lang, 1999
SARACEVIC, T. Information science : origin, evolution and relations. In VAKKARI, P, CRONIN, B. Conceptions of library and information science. London : T. Graham, 1992. P. 5-27
SHAPIRO, F.R. Coinage of the term information science. JASIS, 1995, 46, p. 384-385
(12) SHERA, Jesse H. The foundations of Education for Librarianship. New York : Becker and Hayes, 1972
(3) VARET, Gilbert. Pour une science de l’information comme discipline rigoureuse. T. 1 : profils épistémologiques du concept d’information. Paris : Les Belles Lettres, 1987
VICKERY, B.C., VICKERY, A. Information science in theory and practice. London : Bowker-Saur, 1994. (1st ed. 1987)
WOLTON, Dominique. Penser la communication. Paris : Ed. du Seuil, 1997
Jean-Philippe Accart, Bibliothèque Nationale Suisse
Knowledge Management et management de l’information : la dimension humaine des « communautés de pratiques »
Une recherche dans le cadre du Réseau des bibliothèques de Suisse occidentale (RERO) (1)
Les communautés de pratiques : création et transfert de connaissances
Une communauté de pratiques (comunities of practices ou best practices dans certaines organisations du savoir anglo-saxonnes) se définit comme « un groupe dont les membres peuvent partager leur savoir et apprendre les uns des autres sur tous les aspects de leur pratique » (Wenger, 2000). Un sondage réalisé en 2000 (Bartlett, 2000) a montré que les individus préfèrent le contact avec leurs collègues pour obtenir information et assistance dans leur travail. Les communautés de pratiques ont pour buts de mettre l’expertise en commun, de créer une synergie, d’identifier et de partager les meilleures pratiques, de discuter et d’analyser les leçons apprises et d’identifier les problèmes. Elles sont le lieu où l’innovation naît. Les valeurs de l’entreprise, le climat de travail, l’investissement personnel, la culture de l’entreprise jouent un rôle essentiel. Il s’agit de créer, au travers de ces communautés, un modèle de mentalité commune aux membres de l’organisation (2), un mode de fonctionnement partagé. L’individu n’est pas seul concerné : il évolue dans un ou plusieurs groupes eux-mêmes membres d’une organisation.
Une approche à trois niveaux
Trois niveaux d’approche peuvent être distingués : l’individu, la communauté et l’entreprise. L’approche globale qui en résulte permet de distinguer les stratégies d’acquisition de connaissances structurées de la part de spécialistes (Mc Graw, 1999) ; l’apprentissage avec l’analyse de tâche et de poste pour concevoir des « systèmes de soutien à la tâche » (Gery, 1991) ; et la gestion des connaissances qui cartographie les actifs intellectuels et analyse les échanges entre groupes d’intérêt. Dans une organisation, les structures de connaissance sont des constructions sociales qui se développent de façon dynamique. La socialisation des membres entre les communautés de pratiques est le fondement de ces constructions sociales (Haines, 2001).
Communauté de pratiques et échanges de connaissances
Concrètement, une communauté de pratiques se réunit lors d’ateliers de travail (workshops). Les séances sont préparées à partir d’informations disponibles, d’entrevues avec des personnes-clés et de synthèses sur les affaires en cours. Un certain nombre de points sont évoqués lors des ateliers, points qui permettent ensuite d’analyser « le réseau social ». Parmi ces points :
Un point crucial : la résolution de problèmes L’atelier de travail est le lieu idéal pour traiter une situation problématique qui se pose à un ou plusieurs membres de la communauté. Elle peut faire l’objet d’une simulation et servir à produire un modèle d’étude de cas (cas de routine avec différents degrés : moyennement difficile ; difficile ; très difficile). Un consensus doit se dégager afin de converger vers un objectif : le résultat attendu par rapport à une situation problématique soulevée. Fréquence, durée et difficultés occasionnées sont parmi les points évoqués : c’est notamment le cas des pannes dans les ateliers de travail ; des pannes informatiques sur les réseaux. La documentation afférente à ce type de problème est très utile : notes de service, procès-verbaux, rapports... L’appel à d’autres spécialistes s’avère parfois nécessaire. Afin d’illustrer les communautés de pratiques, une étude de cas est proposée. En sciences de l’information, les exemples ne sont pas fréquents. Le cas du Réseau des bibliothèques de Suisse occidentale (RERO), outre le fait qu’il se situe dans le contexte suisse, est un cas d’étude intéressant car il rassemble les trois approches décrites précédemment et correspond à l’acceptation actuelle d’une communauté de pratiques professionnelle.
Le cadre conceptuel et le cadre de la recherche : étude d’une organisation du savoir, le Réseau des bibliothèques de Suisse occidentale (RERO)
Le Réseau des bibliothèques de Suisse occidentale (RERO), en tant que cadre de recherche, correspond à un choix personnel. Au cœur de cette organisation durant deux années (3), nous avons pu étudier de l’intérieur un réseau de bibliothèques constitué de par la volonté d’un groupe et qui met « l’accent sur le savoir » (4) . S’adressant à tout type de public en Suisse romande (universitaires, étudiants, chercheurs, grand public…), RERO est l’instrument d’une « bibliothèque romande » riche des collections, des compétences et du partage de ressources de plus de 200 bibliothèques universitaires et de référence de Suisse romande. Le réseau s’appuie sur une architecture à plusieurs niveaux, fondée sur l’échange de pratiques professionnelles ou communautés de pratiques.
Organisation et structure du réseau RERO (5) : quelques chiffres
Sous l’égide de la Conférence Universitaire de Suisse Occidentale (CUSO), le Réseau de bibliothèques de Suisse occidentale est constitué de cinq sites - Valais, Fribourg, Neuchâtel-Jura, Vaud, Genève - avec pour arrière-fond la structure politique des six cantons francophones (dont deux comprennent des minorités germanophones). 210 000 lecteurs sont inscrits dont 35 000 étudiants appartenant à cinq universités. Le réseau utilise un système de catalogage commun : 600 bibliothécaires dans plus de 200 bibliothèques de recherche et de références sont formés à son utilisation. Le catalogue collectif informatisé comprend plus de 3, 3 millions de notices bibliographiques. Il résulte de 20 ans de travail sur le système SIBIL, migré à VTLS en 1997 et à VTLS/VIRTUA depuis 2002. Hormis un catalogue collectif, les sites possèdent des catalogues locaux contenant en plus les cotes et les données nécessaires au prêt des documents (livres, documents sonores et vidéogrammes). La synchronisation des catalogues locaux est assurée par le mécanisme de distribution électronique EDIS avec mise à jour automatique des champs modifiés. L'interface Web pour l'Accès public (ou OPAC), le Catalogue collectif RERO (http://opac.rero.ch), permet de consulter aisément les catalogues locaux. La page d'accueil donne accès à l'ensemble des ressources du réseau.
La structure légale de RERO est une association : une convention a été signée entre les parties qui sont les cantons de Fribourg, Genève, Neuchâtel, Vaud, Valais et Jura, la Ville de Genève, l’Institut suisse de droit comparé (ISDC), la Haute école spécialisée de Suisse occidentale (HES-SO) et la Haute école spécialisée Santé-Social de Suisse romande (HES-S2). L'association est dirigée par un Conseil Exécutif composé de cinq membres dont deux sont nommés par le Comité des Directeurs des grandes bibliothèques ROMandes (CDROM) et trois par la Conférence Universitaire de Suisse Occidentale (CUSO) où siègent les ministres de l'éducation des cantons partenaires et les recteurs des universités membres. La clé de répartition des coûts du système (en cours de réévaluation) est fondée sur une contribution des bibliothèques membres.
L'organisation centrale – la « tête du réseau » installée à Martigny dans le canton du Valais - est constituée de spécialistes bibliothécaires et d’informaticiens. Elle assure différents types de prestations pour le réseau :
Dans le modèle adopté par RERO, les machines sont la propriété des cantons mais le coût des logiciels est pris en charge par RERO qui contrôle les décisions concernant les systèmes Vtls et le système de gestion de base de données sous-jacent ORACLE. Les ingénieurs système des partenaires gèrent les machines locales.
Tous les aspects du travail bibliothéconomique sont présents dans RERO et suivent la chaîne documentaire traditionnelle. Même si les acquisitions de documents reposent sur le logiciel Virtua, celles-ci sont cependant propres à chaque site. Les fonctions courantes (catalogage, indexation-matières - l’intégration du thesaurus dans la base est récente -, gestion des périodiques, prêt, prêt inter) s’appuient également sur l’utilisation d’un logiciel commun, Vtls/VIRTUA. Les modules d’acquisition et du bulletinage sont, eux, en cours d’implémentation.
Le catalogage partagé est le principe fondateur du réseau (7). La qualité des données bibliographiques fait l’objet de soins constants de la part des bibliothécaires sur les sites et du coordinateur à la Centrale. Ce dernier contrôle les données, rédige les règles de catalogage (pour les données titre1, auteur(s), données bibliographiques) disponibles en ligne. Le Catalogue collectif RERO, mis à jour constamment, même s’il comprend des données en plusieurs langues, est un des plus importants à l’heure actuelle en langue française. Enfin, citons le prêt entre bibliothèques qui a fait l’objet d’un développement particulier avec l’application ILL RERO en 2003 tout en s’appuyant sur les données du Catalogue collectif et des catalogues locaux. Le dernier projet RERO est RERODOC, base de données de documents électroniques plein-texte (thèses et ouvrages anciens).
Hormis le Conseil Exécutif qui décide l’orientation générale, édicte la politique globale du réseau et dégage une vision prospective, le CDROM est une instance consultative qui propose les choix bibliothéconomiques. A ces deux commissions les plus élevées dans la hiérarchie du réseau, vient s’adjoindre une troisième commission, la COBASES, qui propose les évolutions techniques du réseau. Les autres commissions ou groupes de travail – il en existe une par module : catalogage, indexation matières, prêt inter, prêt, OPAC, bulletinage, acquisitions – sont pour leur part des communautés de pratiques où s’échangent, se partagent et se transmettent savoirs et connaissances théoriques et pratiques. Composées des coordinateurs locaux et centraux, elles sont chargées de résoudre les questions et problèmes qui se posent au quotidien dans les bibliothèques du réseau et touchant au logiciel. Dans la hiérarchie du réseau, ces commissions représentent le troisième échelon : elles sont le lien direct entre l’organisation centrale RERO à Martigny et l’ensemble des sites répartis en Suisse romande, d’où leur importance.
Il existe deux types de coordinateurs RERO et leur rôle est essentiel : - les coordinateurs locaux sur chaque site ont un mandat officiel de leur institution inscrit dans leur cahier des charges. Ils la représentent, doivent signaler les problèmes et travailler à leur résolution avec les coordinateurs centraux ; - les coordinateurs centraux (un par Commission) animent et dirigent les réunions des Commissions ; celles-ci ont lieu régulièrement (3 à 6 fois par année) et constituent ainsi de véritables communautés de pratiques. Ils rassemblent les problèmes et questions, les signalent dans une base de données de problèmes (RTS – Rero Tracking System), tentent de les résoudre avec l’équipe informatique centrale et rédigent les manuels de leur module. Ils préparent les dossiers qui serviront ensuite d’aide à la décision, notamment pour la COBASES.
Le suivi des problèmes à RERO
Les problèmes à résoudre sont généralement très concrets : une fonctionnalité préexistante disparaît lors de l’installation d’une nouvelle version du logiciel ; un lecteur ne se voit plus autorisé à avoir les mêmes droits ou il est « bloqué » par le système ; les caractères n’apparaissent plus correctement ; les résultats affichés lors d’une recherche ne sont plus dans l’ordre souhaité… Les exemples peuvent être multipliés. Plusieurs étapes sont alors nécessaires pour la résolution :
Voici schématiquement le suivi d’un problème à RERO. Coordinateurs locaux et centraux, informaticiens et experts collaborent pour résoudre le problème.
Structure organisationnelle du Réseau RERO
Comité des Directeurs des grandes bibliothèques ROMandes (CDROM) (organe consultatif) |
Conseil Exécutif RERO (organe décisionnel) |
Groupe de compétences Bibliothèques (bibliothécaires) |
Groupe de compétences Informatique (informaticiens) |
COBASES
Un organe de réflexion et de décision : la COBASES
Cette Commission est composée des chefs de projet des sites (soit cinq personnes) en prise directe avec les questions touchant à la mise en place et à l’évolution du logiciel Vtls/Virtua ; des directeurs adjoints RERO et de bibliothécaires. Il est à signaler que les chefs de projets sont des personnes d’expérience, pour certains ayant suivi et participé au passage du logiciel SIBIL à Vtls puis Vtls/Virtua. Leurs compétences sont élevées et leurs savoirs en matière informatique et pratique du système sont des savoirs d’experts. Les travaux de cette Commission sont orientés selon des thèmes généraux et des sujets d’actualité propres au réseau. Cette commission suit l’évolution du système informatique, véritable colonne vertébrale du réseau. Il est à signaler cependant que l’apport des travaux des différentes Commissions et l’avis des coordinateurs sont des moteurs essentiels pour le fonctionnement de cette Commission. Parallèlement, le fournisseur du logiciel Vtls/Virtua fait lui-même évoluer le système, en prenant en compte les souhaits de ses clients réunis au plan européen au sein d’un groupe d’utilisateurs, l’EUG. Pour RERO, c’est la Commission COBASES qui étudie et fait les propositions d’améliorations. Un thème est choisi et analysé par la Commission, suivi d’une étude réalisée par deux ou trois experts : ces experts ayant l’habitude de travailler avec le système, de suivre ses évolutions sont les plus à même de faire des propositions d’amélioration aux plans technique et technologique. La mise en commun de problèmes et solutions bénéficie au réseau dans son ensemble : il n’est pas rare en effet qu’un sujet qui intéresse un site soit aussi d’un grand intérêt pour d’autres sites et le réseau dans son ensemble. A titre1 d’exemple, la mise en place de la « recherche rapide » (type Google) qui a les faveurs des utilisateurs pour sa facilité et sa rapidité, a été réalisée dans un premier temps sur le site vaudois. A la demande des autres sites, la Commission a décidé d’étendre ce type de recherche à l’Accès public RERO (catalogue collectif RERO). Cinq types de recherches existent maintenant : rapide, par index, mots clés, recherche contextuelle et en mode expert. Cet exemple fait état d’une démarche concentrique propre à tout travail en réseau : de nombreuses autres propositions d’améliorations sont faites par les sites puis appliquées au réseau quand elles ont été testées avec succès. L’homogénéité du réseau préside à toute réflexion. Cela ne va pas sans heurts, chaque site ayant sa spécificité. L’intelligence des différents professionnels ayant opté pour une stratégie réseau est de faire en sorte que chaque site garde une certaine autonomie pour sa page d’accueil : ainsi, chaque catalogue local a une page Web personnalisée à ses couleurs et les langues d’interrogation du catalogue sont fonction des particularités locales (le français est la règle, suivi par l’allemand et l’anglais).
Analyse et conclusion
Bien que résumée, l’organisation hiérarchique du réseau RERO est un cas d’école intéressant pour la problématique qui nous occupe. Il apparaît en effet qu’un travail impliquant plusieurs centaines de personnes utilisant un même outil informatique ne peut que bénéficier d’une organisation hiérarchisée en commissions où les problèmes constatés à la base doivent remonter vers les experts chargés de les résoudre. Le découpage hiérarchique par commissions (la hiérarchie s’appliquant ici non pas au degré d’expertise des membres, mais aux différents niveaux possibles de résolution des problèmes selon les modules) décrit précédemment montre bien que des niveaux différents de résolution de problèmes sont nécessaires : les groupes d’intérêt qui se sont mis en place (les Commissions) traitent de ces problèmes, les résolvent pour certains ou les transmettent à d’autres experts. Il en est de même pour les évolutions attendues du système informatique qui sont des enjeux importants pour les sites confrontés directement aux attentes des lecteurs. Cette organisation complexe ne saurait fonctionner s’il n’y avait pas des intérêts communs représentés par les communautés de pratiques que sont les Commissions. Ces intérêts sont nombreux : le partage des ressources et du travail ; la volonté d’utiliser un outil commun pour toutes les opérations bibliothéconomiques ; le souhait de répondre aux exigences actuelles en matière bibliothéconomique (normes, standards et règles) ; le souhait de répondre à un public de plus en plus exigeant ; une volonté quasi « politique » de travailler en réseau. Il a été constaté que le fait, par exemple, de réduire le nombre des Commissions existantes ou de restreindre leurs réunions – pour des raisons parfois d’ordre pratique - était préjudiciable au bon fonctionnement du réseau. Un autre point essentiel à souligner est le niveau de compétences des différents experts (les coordinateurs) qui constituent les Commissions : le meilleur garant de l’expertise dans ce cas précis est d’avoir une connaissance approfondie du logiciel, une connaissance du terrain (besoins des utilisateurs et des bibliothèques) et pour certains d’avoir participé aux diverses évolutions du réseau. Sans cela, les Commissions ne fonctionneraient pas correctement. Dans le cas décrit ci-dessus, communautés de pratiques, groupes d’intérêts et expertise se conjuguent étroitement, avec une volonté exprimée de travailler ensemble. Cet exemple n’est évidemment pas le seul, mais il demeure suffisamment original pour constituer un cas d’étude actuel à l’heure où la gestion des connaissances (Knowledge Management) prend de plus en plus le pas sur la seule gestion de l’information.
Notes
(1) Cette recherche est menée dans le cadre d’une thèse de doctorat entreprise en 2002 à l’Université Lyon 1 – Enssib au sein du laboratoire de recherche GRESI. D’autres informations et un Dossier Knowledge Management sont consultables sur le site de l’auteur : .
(2) Le terme « organisation » rassemble indifféremment une entreprise ou une institution, privée ou publique.
(3) L’auteur a été de 2002 à 2004, coordinateur du Prêt, du Prêt inter et de l’OPAC à RERO.
(4) « L’accent sur le savoir » est la phrase-clé présente sur la page d’accueil du site Web RERO : http://www.rero.ch
(5) Cette partie s’inspire des documents officiels diffusés par RERO et de notre propre expérience de coordinateur.
(6) Nous n’évoquerons que quelques aspects des fonctions bibliothéconomiques dans RERO, car leur étude détaillée dépasserait le cadre de cet article.
(7) On lira avec intérêt les ouvrages de Pierre Gavin qui exposent aussi bien l’histoire du Réseau que les aspects techniques et informatiques (Ouvrages référencés dans le Catalogue collectif RERO). Voir également le site de Pierre Gavin : < http://www.pierregavin.ch >
Bibliographie
ALVESSON Mats (1995). Management of Knowledge Intensive Companies. Berlin, Walter de Gruyter. ISBN 3-11-012865-9
AMABILE S., GADILLE M., MEISSONNIER R. (2000), Information, organisation, décision : étude empirique sur les apports des NTIC dans les PME « Internautes », Système d’information et management, n° 1, pp. 41-59.
BALLAY Jean-François. (1997). Capitaliser et transmettre les savoir-faire de l’entreprise. Paris, Editions Eyrolles. ISBN 2-21-2016530
BARTLETT J., (2000), Need to know, Knowledge Management, Dec., pp 22-25.
CADDY Ian (2001), Orphan knowledge : the new challenge for knowledge management », Journal of Intellectal Capital, vol. 2, n° 3, pp. 183-191.
DRUCKER Peter Ferdinand. (1995). Managing in a Time of Great Change. New York, NY, Truman Talley Books/Dutton. ISBN: 0-52-594053-7
DUPOIRIER Georges (coord), ERMINE Jean-Louis. (coord) (1999). Gestion des documents et gestion des connaissances, Document numérique, n° 3-4, vol. 3.
EDVINSSON Leif, MALONE Michael (1999). Le capital immatériel de votre entreprise. Identification, mesure, management. Paris, Maxima-Laurent du Mesnil. ISBN 2-84-001195-6
FOUET Jean-Marc (1997). Connaissances et savoir-faire en entreprise : intégration et capitalisation. Paris, Hermès. ISBN 2-86-601627-0
HAINES V.Y., BEDARD J.P. (2001), Early retirements and the dynamics of social knowledge creation », Journal of Intellectual Capital, vol. 2, n° 3, pp. 273-283.
LIEBOWITZ Jay (1999). Knowledge Management Handbook. Boca Raton, FL, CRC Press. ISBN 0-84-930238-2
MAYERE Anne (1995). La gestion des savoirs face au nouveau modèle industriel, Revue française de gestion, sept-oct., pp. 8-16
NONAKA Ikujiro, TAKEUCHI Hirotaka (1995). The Knowledge Creating Company. New York, The Oxford University Press. ISBN 0195092694
POLANYI Michel. (1966). The Tacit Dimension. London, Routledge & Paul Kegan.
SIMON Herbert Alexander (1976). Administrative Behavior: A Study of Decision-Making Processes in Administrative Organization, (3rd). New York, NY: Free Press.
SVEIBY Karl Erik (2000). Knowledge Management. La nouvelle richesse des entreprises. Savoir tirer profit des actifs immatériels de sa société. Paris, Maxima-Laurent du Mesnil. ISBN
VON KROGH Georg, ICHIJO Kazuo, NONAKA Ikujiro (2000). Enabling Knowledge Creation : how to Unlock the Mystery of Tacit Knowledge and Release the Power of Innovation. Oxford, Oxford University Press. ISBN 2-84-001217-0
WENGER Etienne (2000). Communities of practice : Learning, Meaning and Identity. Cambridge, Cambridge University Press. ISBN 0-52-166363-6
Michel Gorin, Haute Ecole de Gestion, Genève
Le numérique : impact sur le cycle de vie du document
Premier colloque EBSI-ENSSIB du 13 au 15 octobre 2004, Montréal (Québec)
Introduction
« La numérisation, la diffusion des formats numériques originaux, les nouvelles méthodes d’indexation et d’analyse du document ainsi que le fonctionnement en réseau changent les données de base de la vie du document qui devient une sorte de phénix incessamment renaissant. Pourtant, le document demeure un concept central pour les professionnels de l’information, notamment parce que c’est l’élément commun entre l’univers du papier et l’univers technologique.
La préoccupation venue du numérique nous amène à réfléchir plus globalement sur le fait qu’un document, quels que soient sa nature, son âge et son utilisation s’inscrit dans le temps et non dans l’éternité, à l’inverse, symboliquement au moins, du monument. Cette dimension temporelle, fortement bouleversée par le numérique, implique des nouvelles façons de faire pour tous les spécialistes de l’information, quels que soient leurs domaines spécifiques d’expertise et les types de documents qu’ils manipulent ».
Cette assez longue citation, extraite du programme de la manifestation susmentionnée, situe bien son enjeu : le numérique continuera de modifier pendant longtemps encore le rapport qu’entretiennent les spécialistes en information documentaire avec les documents et, partant, avec les informations qu’ils contiennent. Dès lors, il est important qu’ils se créent des occasions de partage et de discussion autour de cette importante problématique professionnelle. Le colloque organisé par deux écoles francophones renommées, sous la présidence de Jean-Michel Salaün (ENSSIB)(1) et de Réjean Savard (EBSI)(1), dans le splendide bâtiment des Archives nationales du Québec à Montréal, a parfaitement rempli son rôle : plus d’une centaine de participantes et de participants issus d’une dizaine de pays – professionnels de l’information documentaire (bibliothécaires aussi bien qu’archivistes), étudiants de l’EBSI, chercheurs, professeurs - ont pu écouter une bonne vingtaine d’exposés intégrés dans sept tables rondes thématiques, qui les ont amenés à réfléchir aux défis posés par le numérique.
Les temps du numérique (2)
La conférence d’introduction que se sont partagée Florence Sédes (Université Paul Sabatier, Toulouse); Sylvie Calabretto (INSA, Lyon) et Geneviève Lallich-Boidin (URSIDOC, Lyon 1), s’est attachée à démontrer que la réflexion sur la dimension temporelle est indissociable du document numérique, en raison de la nécessaire et complexe prise en compte des diverses versions des documents. Elles ont également insisté sur le fait que de nombreux acteurs sont concernés par cette problématique : les « conservateurs » (bibliothécaires, archivistes, etc.), les « interprètes » (archéologues, historiens, etc.), les « réalisateurs » (informaticiens, créateurs de programmes de PAO, etc.) et les « diffuseurs » (responsables de portails, éditeurs, etc.). Enfin, elles ont tenté de définir les trois univers et les trois temps du document numérique, ainsi que leurs interactions, qui peuvent être résumés de la manière suivante : • Les trois univers sont l’espace documentaire, formé de documents et des relations qui existent entre eux ; l’univers socio-historique, celui dans lequel se trouvent les auteurs et les « lecteurs » ; l’univers du discours, à savoir l’univers reconstruit par le « lecteur » à partir des discours contenus dans les documents ; • Les trois temps sont le temps de l’espace documentaire ; le temps socio-historique, marqué par des périodes, des dates ; le temps du discours, inscrit par l’auteur et reconstruit par le « lecteur ».
Quelques réflexions sur le cycle de vie du document ont complété cet exposé relativement théorique, qui a bien introduit le sujet décliné ensuite en sept thématiques, évoquées ci-après sans volonté d’exhaustivité, plus ou moins succinctement et en fonction des intérêts particuliers de l’auteur de ce compte rendu - donc en toute subjectivité !
Le cycle de vie, ses dérives et sa régulation
Deux des exposés, consacrés pour l’un au « Cadre de référence gouvernemental en gestion intégrée des documents » au Gouvernement du Québec, et pour l’autre à la gestion des documents numériques dans les universités québécoises, ont démontré que « la belle province » a pris conscience du fait qu’une gestion documentaire rigoureuse est encore plus nécessaire aujourd’hui, en raison de la multiplication des documents numériques.
Le Gouvernement du Québec souhaite ainsi se doter d’une vision, de méthodes et d’outils pour mieux gérer ses documents, tous supports confondus, et le cadre de référence susmentionné est la réponse apportée à ce désir. L’objectif final est bien entendu d’intégrer la gestion documentaire (supports papier et électronique) dans tous les services gouvernementaux, tout en tenant compte des obstacles technologiques et de la culture organisationnelle existante, laquelle nécessite une prise en compte efficace de la notion de gestion du changement. L’exposé d’Yves Marcoux (Université de Montréal) a permis de découvrir que le Québec s’est doté, en juin 2001, d’une Loi concernant le cadre juridique des technologies de l’information, qui donne, dans ses articles 3 et 4, une définition extrêmement intéressante et innovante du document, que je ne résiste pas à soumettre à votre réflexion :
3. Un document est constitué d'information portée par un support. L'information y est délimitée et structurée, de façon tangible ou logique selon le support qui la porte, et elle est intelligible sous forme de mots, de sons ou d'images. L'information peut être rendue au moyen de tout mode d'écriture, y compris d'un système de symboles transcriptibles sous l'une de ces formes ou en un autre système de symboles. Pour l'application de la présente loi, est assimilée au document toute banque de données dont les éléments structurants permettent la création de documents par la délimitation et la structuration de l'information qui y est inscrite. Un dossier peut être composé d'un ou de plusieurs documents. Les documents sur des supports faisant appel aux technologies de l'information visées au paragraphe 2º de l'article 1 sont qualifiés dans la présente loi de documents technologiques. 4. Un document technologique, dont l'information est fragmentée et répartie sur un ou plusieurs supports situés en un ou plusieurs emplacements, doit être considéré comme formant un tout, lorsque des éléments logiques structurants permettent d'en relier les fragments, directement ou par référence, et que ces éléments assurent à la fois l'intégrité de chacun des fragments d'information et l'intégrité de la reconstitution du document antérieur à la fragmentation et à la répartition. Inversement, plusieurs documents technologiques, même réunis en un seul à des fins de transmission ou de conservation, ne perdent pas leur caractère distinct, lorsque des éléments logiques structurants permettent d'assurer à la fois l'intégrité du document qui les réunit et celle de la reconstitution de chacun des documents qui ont été ainsi réunis (3).
Quant aux universités québécoises, celles-ci souhaitent se doter d’un modèle de gestion, de contrôle et de préservation des documents produits sous forme numérique. Elles ont ainsi mandaté le Sous-Comité des archivistes de la Conférence des recteurs et des principaux des Universités du Québec (CREPUQ) pour mener une réflexion approfondie, laquelle a débouché sur la publication, en février 2004, d’un volumineux rapport dont je ne peux que recommander la lecture (4). Ce dernier propose un état des lieux dans les universités québécoises suivi de nombreuses recommandations, puis commente un modèle de gestion des documents numériques et un plan d’action qui peuvent être mis en œuvre de manière personnalisée par chaque établissement universitaire. Le plan d’action, véritable marche à suivre qui se veut délibérément pragmatique, comporte sept étapes principales, que Carole Saulnier (Université Laval) et André Gareau (Université du Québec à Montréal) ont soumises à l’assemblée :
Imprimé, visuel, numérique : interactions et harmonisation
Cette table ronde a proposé trois exposés qui se sont attachés à montrer les résultats de recherches menées, respectivement, par James Turner (EBSI), Clarisse Holik (Université de Paris 8) et Marie-Hélène Dougnac (ENSSIB). La première a consisté en une étude portant sur les images animées, plus spécifiquement sur la modélisation du processus de production de films numériques, afin d’identifier la documentation créée tout au long du processus de création. La deuxième s’est efforcée de décrire l’impact du numérique sur le cycle de vie du « conducteur » du Journal télévisé de TF1, le « conducteur » étant la liste de tout ce qui se passe durant le Journal (ordre des reportages, noms des intervenants, minutage, etc.) et devant être archivé au sens du dépôt légal. Le dernier exposé a, quant à lui, montré que le numérique a également un impact sur la durée de vie et sur les modalités d’accès aux documents destinés aux handicapés visuels ; grâce au numérique, ce public dispose désormais de trois modes d’appropriation d’un texte : sonore (voix de synthèse), écrit (grossissement, traduction en braille) et audionumérique (5).
Le document en mutations
Anne-Marie Bertrand (Rédactrice en chef du Bulletin des bibliothèques de France) s’est demandé si le document numérique et l’instabilité qui le caractérise n’impliquent pas, en définitive, que nous fassions le « deuil de la mémoire ». Son analyse des onze différentes éditions (1966 – 2003) de l’ouvrage de référence « Le métier de bibliothécaire » semble en effet démontrer que l’on peut considérer « l’accumulation, la sédimentation des différentes éditions du « Métier » comme une source majeure pour l’histoire de la profession de bibliothécaire – pour l’histoire de l’élaboration de sa culture professionnelle ». Or, « l’instabilité du document en ligne détruit l’idée même de trace » ; le « statut de témoignage » que le document possède pour l’historien se trouve ainsi, désormais, remis en question.
Claudette Hould, chercheuse et historienne de l’art (Université du Québec à Montréal) a, quant à elle, mis l’accent sur l’importance du numérique dans son domaine. L’accès physique aux œuvres d’art, quelles qu’elles soient, exige en effet beaucoup de patience et de moyens financiers, lorsqu’il n’est pas simplement rendu impossible pour des raisons de sécurité et de conservation. La diffusion d’images numérisées de ces œuvres d’art permet ainsi, en quelque sorte, de rentabiliser le coût induit par leur conservation.
Le traitement documentaire
Lyne Da Sylva (EBSI) s’est employée à démontrer que les traitements automatiques (indexation, condensation mono- ou multitextes, classification) sont dignes d’intérêt pour l’accès aux documents numériques éphémères (par exemple : documents momentanés que représentent les réponses obtenues suite à une recherche sur le Web, formulaires sur le Web, pages contenant la une des journaux en ligne, archives de courriels). En effet, même s’ils sont encore aujourd’hui, malgré les progrès enregistrés ces dernières années, de moindre qualité que les traitements réalisés par des professionnels, ils représentent une alternative intéressante pour ce type de documents.
Katarzyna Wegrzyn-Wolska (Ecole supérieure d’ingénieurs en informatique et génie des télécommunications, Fontainebleau) s’est, quant à elle, intéressée à la durée de vie, à l’accessibilité et à l’archivage des pages Web créées dynamiquement, c’est-à-dire pour une demande individuelle, lesquelles disparaissent après consultation (la dénomination d’« étoiles filantes dans l’espace documentaire » leur a d’ailleurs été attribuée par l’auteure de cet exposé, démontrant ainsi que les informaticiens peuvent être poètes à leurs heures !).
Complexité de la gestion des documents numériques
Deux exposés à mentionner ici. L’un présenté par Marc Lebel (Ville de Montréal, Section de la gestion des documents), qui a plaidé pour une conservation permanente, à long terme, de toutes les bases de données élaborées dans le cadre des administrations, étant donné leur importance pour ces dernières. Le second, proposé par Sabine Mas, candidate au doctorat (EBSI), qui a rendu compte d’un aspect de son projet de thèse. Elle a tenté de démontrer le lien qui existe entre le mode d’organisation personnelle des documents électroniques et leur interprétation, en insistant ensuite sur le fait qu’il paraît nécessaire, dans un organisme, de tendre à classer les documents conservés par les employés selon un plan de classification institutionnel.
Documents numériques : problématiques de disponibilité et d’accès
Deux autres exposés à mentionner ici. L’un présenté par quatre chercheurs français : Jean Casenave (Université de Bordeaux 3), Gaio Mauro (UFR Sciences et techniques, Pau), Dagorret Pantxika et Christophe Marquesuzaà (UIT de Bayonne), qui ont salué la « revitalisation » du patrimoine littéraire local et régional grâce la numérisation. A l’aide d’un exemple, ils ont montré que la numérisation puis l’analyse, le « marquage », l’exploitation des textes par des équipes multidisciplinaires (informaticiens, géographes, spécialistes d’une littérature, etc.), rend possible leur utilisation à diverses fins : usage savant, pédagogique ou même touristique.
Quant à Chérifa Boukacem (ENSSIB), elle a estimé que l’intégration des documents électroniques dans les fonds des bibliothèques universitaires françaises a donné une certaine visibilité aux collections papier et, ainsi, en quelque sorte, prolongé leur cycle de vie, grâce à la complémentarité existant désormais entre documents traditionnels et documents électroniques.
Numérique et perspectives africaines
Cette dernière table ronde a permis, une nouvelle fois, de mesurer l’écart existant entre les préoccupations des pays du Nord et celles des pays du Sud. On parle beaucoup de fracture numérique, en particulier depuis le Sommet mondial sur la Société de l’information : il convient, en l’occurrence, de réfléchir non seulement aux problèmes techniques rencontrés par les pays du Sud – en les aidant à rattraper leur retard en matière d’infrastructures - mais aussi aux réjouissantes perspectives, en termes de formation ou de pérennisation des traditions, que les documents numériques offrent aux populations.
Conclusion en style télégraphique (6)
l’accès à certains documents qui n’étaient pas, a priori, destinés à une large diffusion ; il influence alors le potentiel de développement du document
Notes
(1) Ecole de bibliothéconomie et des sciences de l’information, Université de Montréal – Ecole supérieure des sciences de l’information et des bibliothèques, Lyon
(2) Les intertitres correspondent aux intitulés de la conférence introductive et des tables rondes
(3) http://www.autoroute.gouv.qc.ca/loi_en_ligne/loi/annindex.html [page consultée le 9.11.04]
(4) http://www.CREPUQ.qc.ca/documents/arch/Rapport-GGDN.htm [page consultée le 9.11.04]
(5) Pour un exemple concret d’initiative prise dans ce domaine, voir le site de DAISY (Digital Accessible Information SYstem), consortium créé par des bibliothèques proposant des livres parlés, dans le but d’accompagner la transition du livre parlé analogique vers le digital : http://www.daisy.org/about_us/default.asp [page consultée le 9.11.04]
(6) Merci à Jacques Grimard (EBSI) et à Jean-Michel Salaün (ENSSIB), qui ont conclu le colloque par une magistrale synthèse, qui m’a été bien utile pour rédiger ma propre conclusion !
Thomas Von Handl, Universität Hildesheim, Allemagne
Internationales Symposium für Informationswissenschaft (ISI) an der HTW Chur
Mit der neunten ISI-Tagung, die vom 6.10. bis zum 8.10 in Chur stattfand, ist die Informationswissenschaft endgültig in der Schweiz angekommen. Nach der jahrelangen Aufbauleistung zur Etablierung von Studiengängen in Chur und Genf folgte nun also auch die informationswissenschaftliche Fachtagung für den deutschsprachigen Raum dem Ruf in die Alpenrepublik und wurde dort erstmals ausgerichtet. Es ist zu erwarten, dass sich diese erfreuliche Entwicklung noch fortsetzt und verstetigt. Zumindest die hohe Teilnehmerzahl und der bemerkenswerte Anteil Schweizer Besucher geben Anlass zu dieser Erwartung.
Die Tagungsorganisation der ISI bestätigte alle Vorurteile über die Schweiz und lief wie ein Uhrwerk. Der Tagungsband ist in der Schriftenreihe des Hochschulverbands Informationswissenschaft (HI) beim Universitätsverlag Konstanz (www.uvk.de) erschienen. Im Rahmen der Tagung fand auch die Mitgliederversammlung des HI statt, in der Marc Rittberger von der HEG Genf zum neuen Vorsitzenden gewählt wurde.
Eingeladene Vorträge
Die vier eingeladenen Redner boten ein breites Sektrum und lösten das Tagungsmotto „Information zwischen Kultur und Marktwirtschaft“ in besonderer Weise ein. Das Thema wurde aus der Perspektive der Politik, der Bibliotheken, der interkulturellen Kommunikation und der Wirtschaft kompetent und kurzweilig beleuchtet.
Wissenschaftliches Programm
Die Bandbreite der Themen und der Methoden in der Informationswissenschaft und ihrer unterschiedlichen Ausrichtungen erzeugten ein Spannungsfeld, das immer wieder neu ausgelotet werden muss.
Information Retrieval-Themen haben traditionell ihren Platz auf der ISI. Michael Kluck vom Informationszentrum Sozialwissenschaften in Bonn berichtete von neueren Entwicklungen bei der GIRT Testdatenbank, die eine sehr wertvolle Ressource darstellt und im Rahmen des europäischen Cross Language Evaluation Forum (CLEF) Einsatz findet. Joachim Griesbaum von der Universität Konstanz interpretierte aktuelle Tendenzen zur Ergänzung der Funktionalität bei Suchmaschinen im Internet. Eine empirische Analyse der Möglichkeiten zur Angabe des Datums bei Suchmaschinen präsentierte Dirk Lewandowski von der Universität Düsseldorf. Robert Strötgen von der Universität Hildesheim berichtete über Weiterentwicklungen im Projekt ASEMOS bei der Übersetzung zwischen Ontologien und Freitexttermen zur Verbesserung der Rechercheergebnisse in heterogenen Digitalen Bibliotheken.
Das Thema Retrieval stellte Christian Wolff von der Universität Regensburg in den größeren Kontext des Dokumentenmanagement. Er stellte ein umfassendes System für die Analyse, die Visualisierung und den Zugriff auf Text-Dokumente vor.
Hagen Engelmann vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme berichtete von der Realisierung eines Beratungssystems auf Basis eines Dialogmodells. Für die Implementierung wurde auf vorhandene Technologie wie Chatterbots und die Artificial Intelligence Modelling Language (AIML) zurückgegriffen.
Eine Anwendung mobile Informationssysteme in Australien hat Christopher Lueg von der Charles Darwin University in Australien entwickelt. Sein System überspielt Busfahrpläne von kleinen Stationen an abgelegenen Haltestellen auf das Mobiltelefon des Benutzers.
Elisabeth Milchrahm von der Karl-Franzens-Universität in Graz untersuchte Stellenanzeigen zum Wissensmanagement aus amerikanischen Online-Jobbörsen. Die Uneinheitlichkeit und schnellen Änderungen der Terminologie sorgen bei Suchenden für Probleme, stellen aber auch die Entwickler neuer Curricula vor Herausforderungen.
Ein sehr ambitioniertes Projekt an der Schnittstelle zwischen Informationswissenschaft und Informatik stellte Ralph Kölle von der Universität Hildesheim vor. In verteilten Programmierteams sollen fehlende Rollen durch Software-Intervention ergänzt werden. Joachim Griesbaum und Wolfgang Semar von der Universität Konstanz ergänzten diese Sektion zum informationswissenschaftlich basierten Einsatz von E-Learning Komponenten in der Ausbildung. Griesbaum berichtete von Erfahrungen bei einer Lehrveranstaltung im Konstanzer K3-System (Kollaboration, Kommunikation, Kompetenz), das kollaborative Bearbeitung der Inhalte und begleitende Evaluierung ins Zentrum rückt. Semar besprach die Anreizsysteme zur Aufrechterhaltung der Motivation in K3.
Das Programm wurde abgerundet durch eine Podiumsdiskussion und eine Sektion zu aktuellen Entwicklungen beim Urheberrecht.
Gerhard Lustig Preis
Seit langem hat nicht nur die studentische Teilnahme an der ISI Tradition, vielmehr stellt auch die Auswahl der besten studentischen Abschlussarbeiten der letzten zwei Jahre einen Höhepunkt dar. Dieser Programmteil wird immer gut besucht und viel diskutiert. Die Qualität der studentischen Beiträge war auch in Chur wieder sehr hoch und zeigte das breite Spektrum der Ausbildung. Den ersten Platz belegte Tobias Müller mit einer Arbeit im Rahmen des K3-Systems der Universität Konstanz. Den zweiten Platz erreichte die Vertreterin der Universität Regensburg, Susanne Mühlbacher die eine Arbeit im Rahmen von Fahrerassistenzsystemen vorstellte. Den dritten Platz vergab die Jury an Pia Schnetzler vom Studiengang Internationales Informationsmanagement der Universität Hildesheim, die Systeme zur Eigennamenerkennung im multilingualen Information Retrieval evaluiert hatte. Die Preisgelder in Höhe von insgesamt 1000.- Schweizer Franken hatte die Firma Eurospider gespendet und von deren Gründer und Leiter, Peter Schäuble überreicht.
Social Event
Ein Höhepunkt der ISI war der Gesellschaftsabend und dies nicht nur wegen der dort präsentierten Alphörner. Vor der Verleihung des Gerhard-Lustig-Preises an die Nachwuchsgeneration wurden zwei Lichtgestalten der Informationswissenschaft zum 60ten Geburtstag geehrt. Für Rainer Kuhlen hatte bereits im Sommer ein Festsymposium stattgefunden, auf dem die ihm gewidmete Festschrift überreicht worden war. Aber auch auf der ISI wurde der Anlass noch gewürdigt und Wolfgang Semar, der Betreuer der HI-Schriftreihe, überreichte Rainer Kuhlen das erste Exemplar seines neuen Buches zur Informationsethik. Die Ehrung von Jürgen Krause übernahm Christian Wolff. Nach einer kurzen Darstellung des Lebenslaufs übergab er dem Jubiliar das erste Exemplar einer Festschrift, die in der HI-Reihe beim UVK erscheinen wird und von Maximilian Eibl, Christian Wolff und Christa Womser-Hacker herausgegeben wird. Jürgen Krause sprach in seinem Dankeswort die ihn prägende sogenannte 68er Generation an, die unter anderem Festschriften vehement ablehnte. Allerdings habe er seine Einstellung mittlerweile in vielen Bereichen relativiert und freue sich nun sehr über die Ehrung durch eine ebensolche Festschrift.
Nach einer durchweg gelungenen Veranstaltung plant man gern bereits den Besuch der Folge-Konferenz. Die nächste ISI richtet im Herbst 2006 die Fachhochschule Köln aus.
Hélène Madinier, Haute Ecole de Gestion, Genève
Retours sur le colloque "Partager pour gagner" à la Haute Ecole de Gestion (HEG) de Genève, 30 septembre 2004
Le 30 septembre 2004 s’est tenu à la Haute Ecole de Gestion (HEG) de Genève un colloque (1) sur la gestion des connaissances, qui a rassemblé plus de 100 participants, représentant des grandes entreprises, des PME, des associations et organismes à but non lucratif, ainsi que des administrations cantonales et communales.
Le thème de gestion des connaissances (connu surtout sous son nom anglais, knowledge management, abrégé en KM) a été choisi car il suscite actuellement un fort intérêt dans les domaines de la gestion, de l'informatique et de la gestion de l'information, tout en demeurant un peu abstrait, en Suisse romande.
Pourquoi partager des connaissances? Comment favoriser cette création et ce partage? Quels sont les modèles à suivre, les écueils à éviter, les outils, et les modes d’organisation à adopter? Quels sont les liens avec la veille, avec les réseaux? Quels sont les métiers les plus concernés? Telles étaient les questions auxquelles l’ensemble des interventions a tenté de répondre.
Le programme comportait une séance en plénière et des sessions parallèles, ce qui permettait à la fois de refléter la diversité des expériences, méthodes, formes et outils du KM, et d’offrir un plus grand choix aux participants.
Les sessions portaient respectivement sur les pratiques du KM, le management, les réseaux/communautés et les outils du KM.
La notion de KM
La séance plénière était animée par Jean-Yves Prax, expert français en KM et directeur de l’entreprise de conseil Polia Consulting.
Pour Jean-Yves Prax, le KM a comme intérêts majeurs de favoriser la transmission du savoir, et l'émergence de l'innovation.
La notion de KM trouve ses fondements théoriques notamment dans le corpus scientifique des sciences cognitives. Elle trouve également sa légitimité dans les pratiques: pratiques dues aux nouvelles technologies (Internet essentiellement) favorisant une meilleure information, de nouvelles formes de travail comme le travail à distance et asynchrone, bousculant les notions classiques de hiérarchie; pratiques liées aux changements économiques comme l'entreprise étendue (échanges avec fournisseurs, partenaires, clients), le développement du secteur tertiaire, et les perspectives prochaines de départs à la retraite massifs de cadres expérimentés (papy-boom).
Le knowledge management se rattache à deux notions fondamentales: la connaissance et les collectifs humains.
A partir de là, J.-Y. Prax a précisé:
Le cercle du savoir se décline ainsi:
Créer les connaissances nouvelles (innovation), accéder aux connaissances existantes et les exploiter (améliorer les processus), pérenniser et transmettre les connaissances cruciales (construction d'un capital de connaissances), ce qui peut permettre de créer des connaissances nouvelles etc..
Mais il ne peut y avoir de partage des connaissances sans un management approprié: comme l'expliquait Paul Vanderbroeck dans son intervention, pour instaurer un réel partage de connaissances au sein de l'entreprise, il faut souvent faire évoluer les modes de management et se transformer en entreprise apprenante: entreprise qui favorise l'apprentissage à partir des erreurs, et qui permet de créer un climat de confiance.
Récits d'expériences
La dimension ressources humaines du KM a été présentée par la banque Lombard Odier Darier Hentsch et Cie au travers de son projet de gestion des compétences.
Le but du projet était d'offrir un outil unique et partagé pour les processus RH: d'une part rendre le collaborateur propriétaire de ses données et de l'autre, donner au manager un accès facilité aux données de son équipe.
Ce projet a permis une meilleure compréhension (et donc, intégration) des ressources humaines et de leur rôle dans l'entreprise.
L'utilisation du KM comme outil de résolution de problèmes a été exposée par le consultant André Boder, qui montrait qu'avant tout, le KM sert à mettre à plat des processus, à caractériser des situations, à amener les collaborateurs d'un ou de plusieurs services, à expliciter des modes de fonctionnement, à mieux communiquer, et à être plus performant.
Le KM c'est aussi et surtout des échanges entre communautés et autres réseaux. A cet égard, l'expérience récente de la Chambre de commerce et d'industrie de Grenoble, commentée par Isabelle Brun-Buisson, est représentative.
La CCI de Grenoble a mis en place et anime la plate-forme collaborative Ecobiz, permettant l’échange de connaissances et d'expériences entre entreprises et autres acteurs économiques de l’Isère. Cette plate-forme abrite une vingtaine de communautés thématiques, qui reçoivent régulièrement des informations ciblées et se rencontrent plusieurs fois par année.
L'expérience de Rezonance, entreprise organisatrice des «First Tuesday» est aussi intéressante. Elle organise régulièrement des rencontres-événements sur un thème spécifique et réunit tous les acteurs intéressés (entreprises, étudiants, administrations). Ces rencontres, qui sont prolongées par un site Internet, favorisent ainsi la création de réseaux. Sa responsable, Geneviève Morand, expliquait l'importance fondamentale des réseaux et du réseautage dans la réussite économique, ainsi que la façon de développer ses aptitudes en réseautage.
Enfin, la partie sur les outils comportait plusieurs démonstrations: de l'outil Knowings, de Mayetic Village, et de la plate-forme Wiki mise en place par des professeurs d'informatique à la HEG.
Mais tous ces intervenants s'accordaient sur le fait que l'outil doit être au service du projet de KM et non s'y substituer, ce qui est parfois une des causes d'échec des projets de KM.
Les liens entre gestion des connaissances et gestion de l'information
Les liens entre gestion des connaissances et gestion de l'information étaient mentionnés lors de l'exposé principal (Jean-Yves Prax), évidents dans l'exposé sur le projet de veille réalisé auprès de quelques PME de Suisse romande (Evelyne Deferr), et détaillés plus précisément dans la description des différents rôles intervenant lors d'un projet de gestion des connaissances (Hélène Madinier).
Si l'on résume l'exposé concernant les différents rôles et plus spécifiquement le rôle de gestionnaire de l'information dans un projet de KM, il faut rappeler que la gestion des connaissances est "un ensemble de modes d'organisation visant à créer, collecter, organiser, stocker, diffuser, partager, utiliser et transférer la connaissance dans l’entreprise" (CIGREF, 2000) (2). Cette connaissance est aussi bien représentée par des documents, internes ou externes à l'entreprise, que par des expériences et savoir-faire des collaborateurs.
Même si la connaissance explicite n'est qu'une partie de la connaissance -l'autre étant la connaissance tacite-, on voit nettement quel peut être le rôle des gestionnaires de l'information lorsqu'il s'agit de la collecte, de l'organisation, du stockage et de la diffusion des documents externes et internes à l'entreprise, et donc des connaissances explicites.
La gestion de ces connaissances est donc a priori une préoccupation permanente et ancienne des professionnels de l'information.
Malgré cela, force est de constater qu'ils ne sont pas -loin s'en faut- systématiquement associés aux projets de KM; souvent, ils doivent y revendiquer leur place.
La pratique amène à constater deux tendances:
Tout d'abord, les responsables de projets de KM font parfois appel à des professionnels de l'information pour leurs compétences en matière d'organisation, de classification de l'information, ou de recherche d'information.
Parallèlement, la profession se diversifie et élargit sa sphère d'activité. Si, traditionnellement, les gestionnaires de l'information intervenaient principalement sur l'information externe ou non directement opérationnelle, on constate désormais que le rôle du gestionnaire de l'information affecte également l'information stratégique de l'organisation, l'information directement utile, et cela en mettant en oeuvre des dispositifs correspondant au plus près à des besoins spécifiques, comme par exemple:
Son rôle évolue ainsi de support à un projet de gestion de connaissances, à celui de responsable d'un projet de gestion des connaissances explicites de l'organisation.
Conclusion
De l'ensemble des exposés, on retiendra ces quelques points qui caractérisent à la fois les conditions d’existence d'une gestion des connaissances et ses chances de succès:
Ce sont à ces conditions que peut exister et se maintenir une gestion des connaissances efficace au sein d'une organisation, et donc une meilleure cohésion, reconnaissance, motivation, et finalement une amélioration des performances.
Notes
(1) Fichiers des présentations des interventions: http://campus.hesge.ch/symposiumkm/telechargement_skm.asp
(2) CIGREF: Club informatique des grandes entreprises françaises http://www.cigref.fr/cigref/
Wissen in Aktion
Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft: Festschrift für Rainer Kuhlen von Stephan Holländer
Unter den diesjährigen Neuerscheinungen auf dem Buchmarkt weckt die Festschrift für Rainer Kuhlen Neugier. Gelingt es, die thematische Breite seines Schaffen in einer Publikation zu reflektieren?
Die Herausgeber, Rainer Hammwöhner, Marc Rittberger und Wolfgang Semar haben es sich zur Aufgabe gemacht, eine Festschrift zum 60. Geburtstag Rainer Kuhlens zu konzipieren. In sechs Abschnitten mit den Themen „Experimentelles Information Retrieval“, „Informationstheorie“, “Information im Kontext“, „Informationsversorgung“, „Wissensmanagement“ und „Komparatives Informationsmangement“ wird der Anspruch gemacht, die Breite des publizierten Schaffens von Rainer Kuhlen thematisch abzudecken. Die Konzeption der Herausgeber darf in ihrer thematischen Strukturierung als gelungen bezeichnet werden.
Die Autoren der Festschrift sind Rainer Kuhlen in vielfältiger Weise verbunden: Studenten, Doktoranden und Habilitanden der Konstanzer Informationswissenschaft; Kollegen und Kolleginnen aus dem Hochschulverband für Informationswissenschaft sowie zugewandter Orte aus Verbänden und anderen Universitäten beleuchten verschiedene Themen in den sechs Abschnitten. Dies sei an einigen ausgesuchten Beiträgen näher betrachtet.
Im Abschnitt „Experimentelles Information Retrieval“ beleuchtet Harald Reiterer die Wichtigkeit der Visualisierung von Recherchen und der Rechercheergebnisse bei der effizienten Nutzung von Information Retrieval- und Data Mining Systemen. Er weist zu Recht auf die Wichtigkeit der benutzerorientierten Sichtweise bei der Entwicklung von visuellen Suchsystemen hin. In einem weiteren Beitrag in diesem Abschnitt erläutern Bernard Bekavac und Joachim Griesbaum Verfahren zur Dokumentenbeschaffung und Sortierung von Ergebnislisten bei der Benutzung von Internetsuchdiensten und stellen die verschiedenen Suchdiensttypen vor. Was ist Information ohne Wahrheit und Wissen?
Der Abschnitt „Informationstheorie“ umfasst vier Beiträge. Erwähnt sei Rainer Hammwöhners Beitrag zum Informationsbegriff. Er beleuchtet die Beziehung zwischen Information und Wissen. Anhand von sieben Thesen vertritt er die Meinung, dass der Informationsbegriff nicht vom Wissens- und Wahrheitsbegriff zu trennen ist. Wolf Rauch geht in seinem Beitrag zu Kuhlens bekanntem Informationsbegriff (Information = Wissen in Aktion) auf die Notwendigkeit ein, den Informationsbegriff um eine zeitliche Dimension zu erweitern, was in verschiedenen Wissenschaftsbereichen auch geschehen ist.
In einem weiteren Abschnitt mit dem Titel “Information im Kontext“ sei der Beitrag von Marc Rittberger zum Thema „Vertrauen und Qualität in Informationsdienste“ hervorgehoben. Er definiert Kriterien für das Vertrauen, das Informationsdiensten entgegengebracht wird. Er zeigt in seinem Beitrag die Abhängigkeit von Vertrauen und Qualität in verschiedenen Kontexten punkto Vollständigkeit, Zuverlässigkeit, Transparenz auf. Dies stellt einen wertvollen Ansatz für die weiterführende Diskussion um den Qualitätsbegriff dar.
Der Beitrag von Thomas Seeger im Abschnitt „Informationsversorgung“ wirft einen Blick zurück in die Frühzeit der Dokumentationsbewegung im letzten Jahrhundert. Der Autor erläutert die Visionen und Konzepte der Gründerväter Otlet und LaFontaine, die zu einer Abspaltung der frühen Dokumentationsbewegung vom Bibliothekswesen führte. Die Ausführungen von Otlet zur virtuellen Präsentation von Wissen dank „Tele-Reading“ und „Tele-Scription“-Maschine sind höchst informativ und verdienen als Vorläufer der Internettechnologie zur Kenntnis genommen zu werden.
Achim Osswald schildert die Entwicklung der eBook-Angebotskonzepte beginnend mit Produkten für propietäre Wiedergabesysteme bis hin zu webbasierten Angeboten. Die Untersuchung der Frage, ob diese Angebote von Bibliotheken genutzt werden, veranlasst den Autor zur Feststellung, dass Bibliotheken aufgrund ihrer Erfahrung mit elektronischen Zeitschriften das Angebot höchst selektiv nutzen. Der Autor führt aus, dass die mittel- und langfristigen Perspektiven für den Bestandsaufbau als spekulativ zu bezeichnen sind. Dieser Ansicht ist beizupflichten.
Im Abschnitt „Wissensmanagement“ wird in verdienstvoller Weise Praxisberichten Raum gegeben. Dies ist zweifellos ein Pluspunkt der vorliegenden Festschrift. So stellen Jubran Rajub und Claus Rautenstrauch das Wissensmanagement-Tool TecNavigator vor. Der in der Einleitung kurz geführte Diskurs zum Informationsbegriff hatte man an anderer Stelle schon prägnanter und profunder gelesen. Die Beschreibung des Einsatzes von TecNavigator in einer Bank ist ein interessanter Beitrag zum Praxiseinsatz von Wissensmanagementtools. Leider schreiben die Autoren nichts zur Akzeptanz des Tools bei den Nutzern der Bank.
Die drei im Abschnitt „Kooperatives Informationsmanagement“ zusammengefassten Beiträge setzen sich mit einem sehr aktuellen Thema auseinander. Die Informationskompetenz soll durch die Nutzung heterogener Informationsquellen gestärkt und unter anderem Studierenden helfen, Informationskompetenzdefizite abzubauen.
Den Herausgebern ist es mit ihrer Konzeption der Festschrift zweifellos gelungen, thematisch die Breite des Schaffens von Rainer Kuhlen gerecht zu werden. Die publizierten Beiträge sind nicht durchwegs von gleicher hochkarätiger Qualität. Einige wenige Beiträge wurden mit einer „heissen Feder“ geschrieben. Die herausragenden Arbeiten in der Festschrift machen jedoch dieses Manko vergessen. Dem Verlag wäre zu wünschen gewesen, dass er seine Lektoratsaufgabe etwas genauer wahrgenommen hätte. Orthographiefehler und die Formatierung als Blocksatz in einzelnen Beiträgen hätten so nicht unbesehen für die Buchausgabe übernommen werden dürfen. Sonst ist die Publikation eine runde Assemblage, bei der man gerne das Glas hebt und sich in die lange Reihe der Gratulanten einreiht, die dem Jubilar zuprostet.
HAMMWÖHNER, Rainer, RITTBERGER, Marc, SEMAR, Wolfgang (Hg.) (2004). Wissen in Aktion : Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft: Festschrift für Rainer Kuhlen. Konstanz , UVK Verlagsgesellschaft. Schriften zur Informationswissenschaft, Band 41. ISBN 3-89669-704-8.