Copyright iegd.institut.online.fr - 2010, tous droits réservés
© IGD 2010
Système d'information : analyse prospective
Philippe Gautier
Copyright : This article is licensed under the GNU Free Documentation License (GFDL)
Avant propos
Les réflexions qui suivent ne sont, ni originales, ni particulièrement avant-gardistes. De nombreuses personnes ont, avant moi, eu ces idées et ces intuitions. Dans certains cas, les approches proposées sont déjà implémentées depuis longtemps dans certains Systèmes d’Information (Météorologie, Analyses statistiques ou probabilistes, Marketing, Finance et Economie, Informatique Industrielle, certains modules décisionnels d’ERP, Réseaux neuronaux, Cybernétique, domaine militaire, etc.).
Cependant, en tant que participant actif à l’essor de l’Internet des Objets (au travers des standardisations EPCGlobal1, en tant que Directeur des Systèmes d’Information d’une société Agro-alimentaire du secteur de la Grande Distribution et enfin en tant que citoyen) je suis frappé de voir que certaines des actions qui sont menées dans ce domaine (pilotes ou déploiements RFID, etc.) le sont sur la base de « réflexions » inadaptés et d’approches trop …. « classiques »
(pour ce qui concerne l’Informatique de Gestion). Ces approches, souvent « techno-centrées » autour des technologies sans-fil (RFID, NFC, ZIGBEE, etc.), focalisent en effet sur les moyens, plutôt que sur la fin : nous dirions en bon Français que « nous mettons, dans nos projets (RFID notamment), la charrue avant les bœufs ».
Plus généralement, les puristes et vrais experts de ces questions voudront bien me pardonner cet exercice de vulgarisation qui ne se veut, ni exhaustif, ni parfait dans la compréhension du problème et la pertinence des solutions proposées.
Traditionnellement, la méthodologie de mise en œuvre des Systèmes d’Information a suivi l’approche Analytique qui faisait (et fait toujours) autorité dans le monde de l’entreprise.
Ce « découpage fonctionnel » de l’entreprise en Métiers ou tâches (fonctions), processus, procédures et instructions fut repris par bon nombre de référentiels, notamment en matière de Qualité (ISO 9000) ou de conception (BPM - Business Process Modeling).
Les Systèmes d’Information actuels sont donc largement, à l’instar de ces méthodologies, architecturés de façon verticale - « par le haut » ou « TOP-DOWN » - en couches multiples et ne savent souvent représenter que succinctement la réalité qu’ils sont censé modéliser.
Pour pallier ces handicaps structurels, des technologies transverses ont permis de répondre, même maladroitement, aux besoins de gestion d’ensembles ou de systèmes de plus en plus complexes (les entreprises mais aussi les groupes d’entreprises, leurs relations, les filières, etc.).
Ce sont les ETL (extraction de données issues de milieux hétérogènes), les « Datawarehouses » (agrégations de données destinées à du « datamining » ou des analyses spécifiques), les solutions d’EAI (« Enterprise Application Integration ») et autres Bus Applicatifs, le « Datamining », le décisionnel (« Business Intelligence ») ou encore, récemment, les architectures décentralisées (SOA - « Service Oriented architectures »).
Lorsque l’on retranscrit cette approche Analytique dans un environnement où les partenaires et interactions sont multiples, le résultat se traduit souvent par le support informatisé de processus « lourds » de type « B-to-B » (l’EDI1 avec les standards EDIFACT en est un exemple). Ce n’est que sporadiquement que des déploiements opportuns et décentralisés de solutions plus réactives (Services en ligne, applicatifs en mode ASP, WEB 2.0, etc.) viennent apporter de la souplesse à l’ensemble.
En outre, ces technologies ne sont souvent abordables que par les seules grandes entreprises (contrats d’ « interchange » pléthoriques, développement de messages spécifiques, etc.) et restent difficilement accessibles aux PME. Elles sont, de plus, difficiles à faire évoluer.
Dans un tel schéma, ouvrir le système d’Information aux tiers (consommateur / B-to-C, citoyen, pouvoirs publics, etc.) relève du tour de force et revient à réaliser la quadrature du cercle.
2 Echange de données Informatisées
Si l’on multiplie le nombre d’acteurs, de points d’entrée de l’information, d’espaces d’échange ou d’univers d’activité, les Systèmes d’Information en place trouvent vite leurs limites (structurelles, techniques et financières). Ces Systèmes d’Information, devant désormais inter opérer dans un vaste ensemble devenu global, doivent « gérer » de multiples dimensions… Or ils ne sont pas faits pour cela, pas plus que la plupart des standards qu’ils sont censé utiliser.
Etant donné, qu’en ce début de XXIème siècle, « la principale évolution est de pouvoir mettre en œuvre des liens (métiers ou autres) entre entités qui ne se connaissent pas, à priori ; ce sans coordination préalable et de façon transparente et intuitive <….>. »a , force est donc de constater qu’il faut repenser nos méthodes de développement Informatique afin de mieux intégrer « Ce concept <qui> peut-être transcrit, à l’instar des appellations usuelles, en « Business-to-Any » (tout le monde « commerce potentiellement » avec tout le monde) »b
Concomitamment, ces nouveaux « composants », « services » ou « types d’acteurs » qui arrivent en masse dans ces systèmes1 ont la nécessité d’être identifiés de façon unique (via des identifiants numériques) pour figurer dans la représentation virtuelle2 qui est faite de ces mêmes systèmes.
De nouveaux standards en matière d’espaces de nommage discriminants permettent donc d’adresser cette problématique3, favorisant ainsi les liens ou relations entre réalité et représentation virtuelle de la réalité :
« Tant pour des raisons conjoncturelles (évolution et coûts des technologies permettant l’identification) qu’historiques (mondialisation des échanges et généralisation des échanges électroniques), les flux supportés par les identifiants numériques « convergent » <…>, rapprochant la « réalité » du cycle de vie des objets physiques et sa « représentation virtuelle ». Le récent concept d’Internet des objets (ou « réseau des choses ») est la parfaite illustration de cette convergence4: Les flux physiques et informationnels y sont étroitement liés, l’identifiant numérique (et son support électronique ou papier) en formant le pivot commun »c.
1 Ici, « systèmes » signifie « environnements réels » (personnes, objets, entreprises, flux métiers ou physiques, relations économiques, sociales, etc.).
2 « Environnement virtuel » : systèmes d’Information, annuaires, catalogues électroniques, réseaux LAN ou WAN, Internet, communautés virtuelles, etc.
3 Exemple d’EPCGlobal
4 L’interdépendance entre « réalité » et « virtualité » va s’accroitre (« ubiquitous » ou « pervasive » computing) jusqu’à ce que la frontière (aujourd’hui encore
perceptible) disparaisse totalement.
Si nos Systèmes d’Information actuels ne conviennent pas à ces nouvelles évolutions, quelle démarche ou méthodologie faut-il retenir pour, d’une part, aborder l’analyse et la compréhension de ces nouveaux « Systèmes1 » et d’autre part transcrire cette méthodologie dans la conception de nouveaux Systèmes d’Information plus adaptés à leur gestion et leur support ?
L’étude des Sciences Physiques et Mathématiques sont susceptibles de nous apporter quelques éléments de réponse….
En établissant un parallèle historique (Informatique de gestion et Sciences), nous constatons que cette problématique de modélisation d’un système devenu « complexe » liée à l’approche analytique des débuts est commune aux deux disciplines.
En effet, en Sciences (Physiques et Mathématiques), les modèles de représentation ou d’analyse ont évolué pour mieux expliquer, supporter ou comprendre l’entropie2 des systèmes rendus de plus en plus complexes par des observations sans cesse plus précises.
Jusqu’au XIXème siècle, des modèles principalement déterministes ont permis d’expliquer le monde tel que nous le percevions. Le "démon de Laplace", « cette hypothétique conscience qui, ayant une parfaite connaissance de tous les éléments et de toutes les relations d'un système, connaîtrait aussi bien le passé que le futur… »d , est un des plus parfait exemples de ces approches scientifiques dont les similitudes avec nos habituelles démarches analytiques en Informatique de gestion témoignent d’une parenté commune. Selon Pierre Simon de Laplace (1749 - 1827), « Une intelligence qui, à un instant donné, connaîtrait toutes les forces dont la nature est animée, la position respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, elle embrasserait dans la même formule les mouvements des plus grands corps de l’univers, et ceux du plus léger atome. Rien ne serait incertain pour elle, et l’avenir comme le passé seraient présents à ses yeux. »e.
Cela ne rappelle-t-il pas certaines spécifications fonctionnelles en matière de développement Logiciel ?
A la fin du XIXème siècle, en plein bouillonnement philosophique, grâce aux progrès permettant une meilleure observation scientifique (mesures, précision) mais surtout aux formidables avancées en matière de mathématiques, de nouvelles approches se sont, progressivement, imposées (jusqu’à nos jours). Henri Poincaré (1854-1912) expose ainsi « la sensibilité critique aux conditions initiales », principe annonçant plusieurs avancées majeures dans l’appréhension et l’interprétation de notre univers dont la « relativité restreinte et générale » d’Albert Einstein et, plus récemment, la « théorie du chaos ».
Ces nouvelles approches sont par essence « systémiques » (même si ce mot est plus récent) et s’attachent désormais à analyser des Systèmes qui ne sont plus « dynamiques linéaires » 3 mais « complexes » et « chaotiques » 4, incluant des notions de récurrence et de sensibilité aux conditions initiales (« effet papillon »).
1 Ici, « systèmes » signifie « environnements réels » (personnes, objets, entreprises, flux métiers ou physiques, relations économiques, sociales, etc.).
2 L’entropie (mesure du désordre d'un système, ou de sa prédictibilité) augmente en fonction de sa complexité
3 « En Mathématiques, en Physique théorique et en ingénierie, un système dynamique est un système classique qui évolue au cours du temps de façon à la fois :
- Causale, c’est-à-dire que son avenir ne dépend que de phénomènes du passé ou du présent ;
- Déterministe, c’est-à-dire qu'à une « condition initiale » donnée à l'instant « présent » va correspondre à chaque instant ultérieur un et un seul état « futur » possible »
(Source : <http://fr.wikipedia.org/wiki/Syst%C3%A8me_dynamique>)
4 « Un système chaotique est un système complexe, régi par une grande variété de facteurs <…>, dépendant de plusieurs paramètres et dont la caractéristique fondamentale est son extrême sensibilité aux conditions initiales. Le comportement de tels systèmes est imprévisible, bien que leurs composantes soient gouvernées par des lois <…> déterministes. Les méthodes théoriques et mathématiques sont inadaptées à la prévision de tels systèmes ; on en est réduit à tenir compte de la statistique, du seul calcul des probabilités. » (PILON CAROLINE, 2003 - « LA THEORIE DU CHAOS », <http://www.mon-ile.net/chaos>)
En Informatique de Gestion, l’arrivée massive de nouveaux « composants », « services » ou « types d’acteurs » dans un vaste Système d’Information Mondialisé (Internet) conforte l’idée selon laquelle nos approches et méthodologies doivent désormais gérer ce que l’on appelle des « Systèmes Complexes ».
Pour ce faire, l’approche systémique a principalement pour finalité le résultat opérationnel et ne prétend pas modéliser de façon exhaustive le système traité. Elle admet que l’ensemble des paramètres à prendre en compte ne soit pas perceptible ou calculable (cf. « sensibilité aux conditions initiales » de Poincaré en Mathématiques ou le « principe d’incertitude » de Heisenberg en Physique).
Elle est donc propre à l’élaboration de systèmes d’Information orientés « Décisionnel » (Business Intelligence) et apte à fournir de l’information utile à un pilote qui prendra les décisions appropriées: en l’occurrence la personne humaine qui utilise ce Système d’Information.
C’est pourquoi cette approche est particulièrement pertinente et utile pour traiter, dans les Systèmes d’Information, l’information évènementielle remontée de la lecture en temps réel d’identifiants numériques (RFID, codes à barres, NFC, etc.) dans un « environnement physique et réel » (ou « système », voir notes 3 et 7 ci-dessus). Ce traitement de l’information en « Bottom-up » (utilisé dans le cadre du pilote de traçabilité alimentaire RFID de Bénédicta en 2007) adresse des processus de plus en plus complexes au fur et à mesure qu’il « remonte » dans les couches fonctionnelles - du plus élémentaire (événement « brut ») au plus élaboré (information agrégée ou consolidée)f.
Dans ce contexte, le « pilote » (humain) en question ne peut en aucun cas se trouver au plus haut niveau hiérarchique, dès lors qu’il s’agit de traiter des problématiques opérationnelles à un « niveau adapté » : un principe de « subsidiarité » (issu de la délégation éventuelle des rôles et tâches) est de mise pour éviter toute rigidité dans le système et toute incapacité chronique d’adaptation au changement.
NOTES
a - Gautier Philippe, « RFID et acquisition de données évènementielles : retours d’expérience chez Bénédicta », p. 79-101 - SYSTEMES d’INFORMATION et MANAGEMENT, N°2, Vol.12-2007- Editions ESKA
b - Idem
c - Idem
d - Pilon Caroline, 2003 - « LA THEORIE DU CHAOS », <http://www.mon-ile.net/chaos>
e - Pierre Simon de Laplace in: <http://fr.wikipedia.org/wiki/D%C3%A9terminisme>
f - Cf. Gautier Philippe, « RFID ET acquisition de données évènementielles : RETOURS d’expérience chez Bénédicta », - SYSTEMES D’INFORMATION ET MANAGEMENT, N°2, VOL.12-2007-EDITIONS ESKA
BIBLIOGRAPHIE
- <http://fr.wikipedia.org> (Définitions)
- JFA01, 1997 - « Quelques généralités sur l’approche Systémique et sur les techniques de Qualité »,
- Pilon Caroline, 2003 - « LA THEORIE DU CHAOS »,
- Vaillancourt Raymond, 1996 - « La théorie du Chaos : Introduction »,
- Tillou Serge et Hannecart Philippe, « Une approche Systémique de la technologie » - Automatique et Informatique Industrielle/Orientations
pédagogiques,
- NONGA HONLA Joseph, 1999-2000 - « les fiches de lecture de la Chaire D.S.O. -Jean-Louis LE MOIGNE : La modélisation des Systèmes
complexes », - Chaire DSO, LIPSOR/Laboratoire d’investigation en prospective Stratégie et organisation - CNAM,
- Bucki Janusz, 2002 - « Analyse décisionnelle des Systèmes complexes » - Techniques de l’Ingénieur, traité- L’entreprise Industrielle - AG1570
- Gautier Philippe, « RFID ET acquisition de données évènementielles : retours d’expérience chez Bénédicta », - SYSTEMES D’INFORMATION
ET MANAGEMENT, N°2, VOL.12-2007-EDITIONS ESKA
Les standards industriels et informatiques de demain seront-ils des « attracteurs étranges » ?
Si nous voulons réussir à intégrer la révolution induite par le développement rapide de l’internet des objets dans nos systèmes de gestion informatisée des entreprises, nous devons donc, dans certains cas, remettre en cause nos approches et les architectures habituellement utilisées.
L’informatique de Gestion doit donc se « réformer » et prendre en compte cette nouvelle dimension « décisionnelle » qui lui permettra (à l’instar de ce que prône la méthode B-ADSc) d’être « l’une des composantes de l’organisation » et non son simple support informatisé.
D’autres pistes sont également explorées ou envisageables, directement inspirées des travaux en sciences Mathématiques et Physiques (théories fractales, Cybernétique, probabilités, etc.).
Attention cependant à ne pas devenir sectaire : approches Analytiques et Systémiques ne sont pas opposables - elles sont complémentaires et bon nombre de fonctions de l’entreprise peuvent et doivent rester sur le schéma analytique actuel, gage d’efficacité dans de nombreux domaines.
Les standards Informatiques ou d’échange existants ou en devenir doivent également inclure ces notions, bien que dans l’inconscient collectif « incertitude », « chaos » et « standard » soient parfois contradictoires. Ils pourraient, dans leurs développements futurs, s’inspirer de ces « attracteurs étranges » de la théorie du chaos qui représentent des tendances ou des états stabilisés cibles plutôt que des contraintes imposées ou des formats statiques et obligatoires. En effet, nous devons composer avec un environnement désormais imprévisible et chaotique.
Les architectures Informatiques décisionnelles idoines doivent donc être ainsi largement décentralisées (downsizing). Ces Systèmes d’Information décisionnels deviennent ainsi des « auxiliaires » des acteurs de l’organisation ou du système en question, permettant une approche « située » dans la gestion des opérations (auto-adaptation à l’environnement ou réaffectation des objectifs propres).
Ces principes sont largement repris dans l’Analyse Décisionnelle des Systèmes Complexes de Janusz Bucki (« B-ADSc ou Bucki-analyse décisionnelle des Systèmes Complexes ») qui applique ainsi le « principe de totalité » selon lequel « le tout est déterminant pour la partie »1. Ce principe généraliste (théologie, sociologie, science), repris en analyse systémique permet de définir ce que Janusz Bucki appelle une « Organisation Complexe » (« dans laquelle divers acteurs autonomes sont susceptibles de concourir à la satisfaction d’une finalité commune »2), qu’elle soit imposée ou élaborée en commun par les acteurs constituant l’organisation.
1 Extrait de « PIE XII - Discours aux médecins neurologues, 14 SEPTEMBRE 1952 »