Angélique Broye, Haute Ecole de Gestion, Genève
Cette 13ème journée franco-suisse sur la veille et l’intelligence économique avait pour but de montrer l’enjeu stratégique des Big Data aujourd’hui dans divers domaines tels le marketing, la santé, les transports publics, la gestion des risques et bien d’autres encore. En matière d’intelligence économique, les enjeux liés à l’exploitation des données du Big Data sont considérables. Ces données transforment les attentes des entreprises qui visent encore plus la performance et l’innovation.
C’est donc sur ce thème que la directrice de la Haute Ecole de Gestion de Genève, Madame Claire Baribaud, a ouvert cette journée de conférences devant la septantaine de personnes présentes dans l’aula du nouveau bâtiment de la HEG-Genève.
S’en est suivi le discours de bienvenue de Monsieur Nicolas Walder, maire de la ville de Carouge, se réjouissant de la continuation des liens franco-suisses par le biais du comité Jveille et invitant les participants à débuter l’écoute des conférences.
Big Data et prospective, par Thomas Gauthier
Monsieur Gauthier cherche à savoir quel est le rôle de l’anticipation pour une entreprise. Il explique qu’actuellement notre monde est devenu complexe. Ainsi, pour qu’une entreprise puisse garder ses clients, il faut qu’elle intègre dans ses produits et services des technologies informatiques qui évoluent vite. Mais il lui faut également des atouts qu’il lui faut chercher internationalement. Le plus important pour elle est donc d’élargir son intelligence et de construire des réseaux de coopération. De ce fait, il faut maintenant qu’une entreprise soit sans frontières.
En parallèle de cela, l’entreprise doit mettre en place une démarche de prospective. Cette dernière s’intéresse au présent et non au futur et doit permettre de mieux agir dans le présent en préparant l’avenir. Thomas Gauthier le démontre par l’exemple de l’entreprise Shell qui, dès les années 70, motive ses équipes à penser « l’impensable » en matière de scénarios catastrophes. Cette culture de la prospective permettra à la compagnie de faire face de manière efficace aux divers problèmes qu’elle a pu rencontrer et ainsi lui permettre une résilience plus aisée.
Cependant, cette démarche de l’entreprise doit concorder avec la complexité de notre monde actuel et pour cela, plusieurs outils d’appréhension de cette complexité ont été mis en place tels des analyses de tendances et signaux faibles, des analyses de jeux d’acteurs ou encore des diagnostics stratégiques et prospectifs de l’entreprise. Grâce à eux, les entreprises et les sociétés peuvent se faire une idée de leur pérennité et de leur situation future.
Pour développer cette prospective, il faut donc des données et notre monde en dispose toujours plus. Il y a donc là un nouveau gisement à exploiter et qui est de plus en plus facile à stocker. Cependant, il faut savoir exploiter ces données et ne pas tomber dans le piège des biais cognitifs et d’une attitude scientiste. La prospective interroge donc nos modèles mentaux. D’après Peter Drucker, pour prendre des décisions efficaces, il ne faut pas commencer avec des faits mais avec des opinions. Par la suite, nous obtenons des faits grâce aux critères de pertinence qui sont indispensables à cette tâche.
L’intelligence artificielle et le cognitive computing sont-ils réservés aux sociétés multinationales ? par Pierre Kauffmann
Pierre Kaufmann explique l’intelligence artificielle (IA) et le cognitive computing grâce à l’exemple de Watson, IA sur ordinateur créée par l’entreprise IBM. Cette intelligence a été testée lors d’un jeu télévisé de réponses à des questions, Jeopardy, qui l’opposait à deux concurrents humains. Le but pour la machine était de se battre sur la compréhension du langage humain. Elle devait donc comprendre le langage naturel. Pour cela, elle devait passer par une première phase d’analyse du texte de la question. Dans la deuxième phase, Watson tentait de comprendre ce que l’on cherchait. Lors de la troisième phase, il a recherché les informations qui répondaient à la question dans toutes les informations qu’il a intégrées dans son système. Finalement, il a dû décider entre toutes les réponses qu’il a obtenues laquelle était la meilleure pour répondre à la question. Et il a gagné le jeu.
Suite à cela, Watson a été considéré tellement performant qu’il a été commercialisé en 2015 dans le monde de la recherche et notamment de la médecine. En effet, dans ce domaine la machine peut se montrer d’une grande aide pour le professionnel de la santé. Elle lit toutes les publications disponibles sur un sujet donné, elle met les informations en relation et intègre toutes ces données. Le but de cela étant de pouvoir soigner le mieux possible un patient. De ce fait, elle met en relation les informations acquises avec celles concernant la personne devant être soignée afin de proposer le meilleur diagnostic possible. Enfin, elle conseille le médecin qui sera le seul à prendre la décision finale concernant le traitement du patient. La machine est donc là pour montrer les liens entre les données, pour guider et conseiller mais elle ne prend jamais la décision finale.
En 2016, l’IA passe au cognitive computing qui est une solution qui comprend, raisonne et apprend en interaction avec les humains. Elle est également capable de lire et de voir. Tout cela est possible grâce au grand nombre de données intégrées par la machine. Avec le cognitive computing, nous ne sommes plus dans le monde des machines ou des systèmes que l’on programme mais dans un monde où la machine s’adapte à l’environnement qui l’entoure grâce à l’interaction avec l’être humain.
Pour que le cognitive computing puisse prendre vie, il lui faut trois éléments : les données, les algorithmes et la puissance de calcul. Grâce à cela, il est en évolution permanente et peut traiter les données de manière toujours plus performante. De ce fait, le cognitive computing peut donc servir dans diverses situations comme dans les helpdesks afin de répondre aux questions du public et détecter ce qui peut être anormal dans une situation donnée. Il peut aussi servir dans le domaine de la santé grâce à la détection sur photo de potentiels mélanomes sur un corps humain. Une autre utilisation est possible avec le discovery advisor qui permet de travailler sur des modèles prédictifs afin de permettre aux entreprises de faire des économies.
La machine dispose donc de nombreux avantages car elle n’est pas fatiguée, elle peut répondre aux diverses interrogations en tout temps et elle gère une très grande quantité d’informations. Cependant, ces avantages s’arrêtent après un certain niveau de précision au-delà duquel elle a besoin de l’homme. C’est notamment le cas pour les questions d’opinion. Ce n’est donc pas encore aujourd’hui que la machine prendra le pas sur l’humain.
Le Big Data au service des tpg : amélioration de la performance et de la satisfaction client, et outil de prospective, par Antoine Stroh et Mickaël Chopard
Antoine Stroh et Mickaël Chopard expliquent qu’actuellement les transports publics genevois (tpg) observent une montée de la concurrence avec entre autres les CFF, Uber, le CEVA et Google Car. Ils ont donc décidé de se servir des données recueillies par leurs véhicules afin de maintenir leur position.
Avec le transport de près de 500'000 personnes par jour, la quantité de données obtenues est intéressante. En effet, chaque bus peut recueillir des informations par le biais du Wifi, du GPS, du ticketing, de la priorité au feu, de la radio et du système informatique. Le but premier de cette récolte de données était d’assurer la sécurité des voyageurs et de mieux communiquer avec eux. Mais s’est présentée pour les tpg, la question de l’exploitation de ces informations qu’il leur faut donc traiter, analyser afin d’améliorer leurs performances et éventuellement diffuser.
Les tpg sont déjà doués dans le métier du transport. La donnée doit donc leur apporter de la valeur et une vision complémentaire. Elle permet d’améliorer les connaissances et de trouver des solutions aux problèmes de ponctualité, de confort des voyageurs, de charge du véhicule mais aussi des conditions de travail des conducteurs, de leur temps de parcours et de battement.
Messieurs Stroh et Chopard mettent en avant le fait qu’aujourd’hui, avec internet et les smartphones, notre population est habituée à tout avoir rapidement. Les transports misent donc tout sur la ponctualité de leurs véhicules. De ce fait, un retard de bus peut provoquer une série de plaintes sur les réseaux sociaux et cela nuit à la réputation des tpg. Les données sont donc primordiales pour améliorer les services et donc par-là, la satisfaction et la relation client.
Les tpg pratiquent également l’open data. Le citoyen devient ainsi co-créateur et cette démarche permet à l’entreprise d’améliorer sa proximité avec le public, d’être transparente et d’induire une démarche d’innovation.
La valorisation des données permet donc d’aider les personnes à faire leur travail et à s’améliorer.
Le Big Data va-t-il changer les règles de l’intelligence économique ? par Loïc Gourgand
Loïc Gourgand explique que la société Spallian, pour laquelle il travaille, a accès à des bases de données non-exploitées jusqu’à aujourd’hui, qu’elle possède des fonds de cartographie et met en place des stratégies de smart data permettant d’extraire toutes les données utiles à l’entreprise. Par ailleurs, Spallian fait des études de géomarketing et pratique la smart gouvernance. Le but étant d’utiliser la prospective pour avoir un avantage concurrentiel dans le futur. Spallian obtient également ses données en temps réel qu’elle peut exploiter afin de conseiller et d’aider les entreprises qui la mandatent.
Pour tous ces services, Spallian crée des dashboards sur mesure pour ses clients qui intègrent des données en temps réel.
Afin d’obtenir toutes ces informations, elle dispose de plusieurs outils qu’elle a créé. Le premier est un outil Stat’ permettant l’extraction de données et leur traitement en masse. Cela permet à l’entreprise de traiter toutes les données dans un même endroit.
Ensuite, vient Corto qui permet de pratiquer la cartographie analytique. L’exemple d’utilisation de cet outil donné par Monsieur Gourgand concerne un projet d’implantation d’un groupe immobilier dans un parc. Un des buts de ce groupe était de savoir si l’endroit était rentable et sécurisé. Pour vérifier cette dernière donnée, Corto a pu fournir à Spallian une cartographie des données enregistrées par la police concernant des actes malveillants perpétués dans et aux alentours de cette zone.
L’outil a aussi permis de prendre des décisions à court terme notamment dans l’exemple de sécurisation des agences d’une banque lors de l’Euro 2016. Pour ce faire, Corto a répertorié les fanzones, a géolocalisé les réseaux de transports et a finalement couplé les localisations des agences de la banque afin de savoir lesquelles se trouvaient en zone de danger. Cela a permis à la banque de pouvoir prendre des mesures de protection pour les sites concernés.
En plus de cela, Spallian développe des produits permettant l’utilisation de données mobiles. Notamment lors de l’épidémie d’Ebola, un système d’alerte a pu être mis en place afin de géolocaliser des personnes travaillant pour une certaine entreprise dans les zones à risques.
Pour mener à bien ses projets, Spallian dispose d’un département de data scientists qui vérifient les données récoltées. En effet, les outils doivent toujours être mis à jour. De plus, l’entreprise dispose également de personnel formé dans le marketing ou la gestion afin de répondre au mieux aux attentes des clients et aux exigences marketing de l’entreprise.
Par ces exemples, nous pouvons voir dans quelles mesures l’exploitation de Big Data permet de gérer au mieux la sécurité d’une entreprise ou d’une personne mais également d’aider des sociétés et des entreprises à prendre des bonnes décisions, ce qui est aussi une des finalités de l’intelligence économique.
Détection systématique de communautés à l’échelle de Twitter, par Clément Levallois
Clément Levallois explique que Twitter dispose aujourd’hui de 117 millions d’utilisateurs actifs. Ce réseau est très riche en métadonnées grâce aux tweets et aux profils des utilisateurs. Ces éléments permettent aux chercheurs des universités de mener à bien diverses recherches concernant les perceptions d’une marque par les utilisateurs à travers leurs tweets. Il est possible de savoir si une marque est perçue comme écologique en suivant par exemple tous les comptes twitter concernant la marque et tous ceux propres à Greenpeace. En les comparants, c’est-à-dire en regardant si les personnes qui suivent les activités de l’une suivent aussi celles de l’autre, il est possible de répondre à cette question. Notamment en utilisant divers outils présents sur le marché tels Tweetdeck, Bluenod et Visibrain qui permettent de visualiser les communautés de Twitter.
Monsieur Levallois a mené un projet à l’EM-Lyon Business School visant à combler le vide que laissent ces outils. En effet, ces derniers répondent aux demandes faites mais sans vraiment résoudre le problème de la visualisation des communautés. Le but de ce projet était donc d’obtenir, via une carte, une visualisation complète de Twitter pour ensuite détecter les communautés du réseau à une échelle globale. Cela devrait permettre de savoir quels types de communautés parlent de quelle marque mais aussi de comprendre comment une publicité ou un buzz se propage dans le monde. Les réponses à ces questions devraient être disponibles prochainement.
Cependant, les données relationnelles entre utilisateurs de Twitter sont, à l’heure actuelle, difficiles à acquérir. Des substituts ont été imaginés mais sans succès car toute la difficulté est de réussir à suivre les relations entre utilisateurs et de détecter les biais. On estime que les données relationnelles sont pertinentes lorsque les utilisateurs partagent trois listes en commun.
Avec ce projet, Clément Levallois souhaite mettre à disposition du public une carte réseau via un site web ou une API. Cette carte sera remplie au fur et à mesure grâce à la collaboration d’entreprises au projet.
Par cet exemple, nous pouvons observer à quel point le Big Data peut aider des marques à développer leur marketing, cibler leur public et diffuser leur publicité d’une façon plus précise.
Conclusion
Grâce aux exemples des conférences données lors de cette 13ème journée franco-suisse sur l’intelligence économique, nous avons pu constater que la multiplication des données ces dernières années est une nouvelle source d’information permettant aux entreprises de mieux s’armer aujourd’hui pour le monde de demain. La prospective est d’ailleurs un élément non négligeable que cette accumulation de données permet de préciser.
Ces Big Data permettent d’améliorer les services et les performances, mais aussi de trouver les problèmes à résoudre. Par le biais de l’intelligence artificielle et du cognitive computing, elles peuvent faire gagner du temps aux professionnels de divers métiers tout en renforçant leurs compétences décisionnelles. En étant utilisées comme dans l’exemple des tpg, elles permettent d’améliorer les performances d’une entreprise et lui permettent de se maintenir en position de concurrence. Les Big Data sont également très utiles pour une marque souhaitant se démarquer sur les réseaux sociaux et cibler au mieux ses différents publics.
Finalement, quand on sait exploiter ces informations convenablement, elles servent également dans le domaine de choix d’implantation et de sécurité comme l’a démontré l’entreprise Spallian avec ses nombreux exemples.
Nous pouvons donc conclure que les Big Data bien exploitées permettent d’avoir une meilleure prise sur l’avenir et donc, de « rendre le futur moins incertain ».