De nos jours, les outils d’analyse de données servent une conception toujours linéaire des décisions. Raison pour laquelle ils n’ont parfois que des effets marginaux sur leur amélioration. L’enjeu pour les décideurs serait plutôt de revoir l’approche conceptuelle des modèles d’analyse afin de répondre aux contraintes réelles qu’imposent des environnements incertains.
Le contrôle en milieu entropique
La comptabilité est « l’organe de vision des entreprises. Elle doit permettre de savoir à tout instant où l’on est et où l’on va » (Fayol, 1918).
Au début du XXème siècle, on entend par comptabilité : système d’information décisionnelle. «Puissant moyen de direction» qui concoure aux opérations administratives de prévoyance et de contrôle (Fayol, 1918). Un « contrôle stratégique » qui consiste à établir des normes attendues, constater les performances réelles et analyser les écarts (Asch, 1992).
Un siècle plus tard, les technologies d’analyse de données s’inscrivent toujours dans cette triple optique prédictive, descriptive et prescriptive (Appelbaum, et al., 2017).
Cependant, la viabilité de cette approche déterministe repose sur deux postulats révolus de nos jours : la simplicité et la stabilité des environnements économiques (Lorino, 1995).
Les technologies du big data ambitionnent depuis de couvrir, par la collecte et l’exploitation de données étendues, toute l’entropie des environnements. En complément, les systèmes de Business Intelligence évoluent vers une mise à disposition de ces données en mode « self-service » afin de servir des besoins d’analyse toujours plus élargis, fluctuants et permanents (Kohtamäki, 2017).
Mais les résultats restent questionnables car c’est parce que ces données révèlent de ces environnements entropiques qu’elles portent le substrat de la désorganisation et de l’imprédictibilité. De fait, beaucoup de ces projets de Big Data Analytics ont échoué en raison d’une trop grande volumétrie de données et du manque de compétences pour en faire perdu des informations d’ordre réellement stratégique (Jayakrishnan, et al., 2018).
Les technologies d’aujourd’hui offrent donc tout le potentiel. Mais faut-il encore savoir appréhender les besoins d’analyse dans des environnements incertains.
Le chaos des données financières
Dans la continuité des travaux de la fin du XIXème siècle sur la thermodynamique, le concept de systèmes chaotiques ou de systèmes dynamiques non linéaires se formalise au cours du XXème siècle. Paradigme applicable à la description des systèmes sociaux (Krasner, 1990), le champs de l’entreprise en présente toutes les caractéristiques (Thiétart, et al., 2006) :
> La complexité : Elle se définit par « la présence d’un nombre important d’éléments indépendants en interaction » (Thiétart, 2000), plus que ne peut en supporter l’esprit.
La comptabilité s’est enrichie au fil des décennies de visions analytiques diverses. Si bien qu’il est aujourd’hui difficile de cibler les axes pertinents pour retranscrire de manière soutenable les performances critiques de la stratégie. Cette accumulation de potentiels d’analyse entraîne une inflation de rapports partiels, souvent contradictoires entre eux, qui nourrissent le sentiment de complexité et le besoin d’axes analytiques supplémentaires.
> L’instabilité : Elle se caractérise par l’incapacité d’anticiper l’impact qu’aura un changement d’état, même infime, d’une composante du système sur l’ensemble de celui-ci. Ce principe imagé par l’effet papillon (Lorenz, 1972) rend les conséquences des décisions stochastiques. L’exercice de la prévision repose sur des conditions d’analyse initiales fondées sur l’historique.
Or, dans des environnements fluctuants et complexement imbriqués, ces conditions initiales évoluent continuellement avec de forts impacts. Les processus budgétaires et de planification, par exemple, aboutissent inévitablement à des scénarios rapidement caducs. La volonté de limiter les spéculations stratégiques sur des bases erratiques pousse alors les directions à démultiplier l’exercice, lui donnant au final l’inefficacité du supplice de Sisyphe.
> La fractalité : Elle se définit par l’autosimilarité des échelles (Mandelbrot, 1892). C’est-à-dire que les deux dynamiques décrites précédemment se reproduisent à l’infini sur des échelles plus petites. Se pose ici la question du grain de finesse pertinent pour travailler les données.
Depuis les documents transactionnels jusqu’aux ratios financiers globaux, l’effet peut être plus ou moins perceptible et accéléré. En plus des axes d’analyse et des récurrences temporelles, il faut donc savoir jongler entre les niveaux d’imbrications qui démultiplient rapidement la volumétrie de données à embarquer.
Suivre le chaos déterministe
Pour décider « les organisations doivent créer un niveau acceptable de certitude » (Daft, et al., 1984). Mais c’est aussi parce que cet « îlot de certitude » peut-être « en porte-à-faux avec les exigences répondant à l’organisation est soumise » qu’il en devient source de chaos (Thiétart, et al., 2006) . L’enjeu est donc de rechercher une zone d’incertitude acceptable.
Car ces systèmes chaotiques ne sont pas complets ergodiques mais s’imbriquent dans un schéma directeur périodique que l’on qualifie d’attracteur étrange (Lorenz, 1963). C’est ce schéma que le bornage des données à embarquer doit permettre de faire réapparaître comme le champ des réactions possibles aux perturbations. Ceci en :
> Prenant le temps d’observer les cycles pour définir la bonne récurrence d’analyse
> Sélectionnant les dimensions et grains analytiques ou pouvant se manifester les perturbations
Par exemple, les délais d’encaissement des créances peuvent être vus comme un indicateur chaotique.
Il est tout d’abord complexe puisqu’une déviation de ce délai peut être liée à des facteurs divers comme un problème de qualité entrainant des litiges, des difficultés dans la relation commerciale, des difficultés financières des clients ou encore des défauts dans le processus de facturation.
Il est ensuite instable car l’une ou une combinaison de ces variables peut agir aléatoirement et influencer fortement sur l’indicateur.
Il est enfin fractal car chacune de ces dimensions analytiques regroupent des niveaux de détails plus ou moins pertinents selon les cas et les moments pour comprendre la déviance de l’indicateur. Parfois une facture seule en sera la cause, parfois il faudra regrouper ces factures sous un grain client, groupe de clients ou secteurs de ventes pour saisir la nature du problème. Et si cette dimension commerciale ne s’avère pas pertinente, il faudra répéter cet exercice de polarisation sur les autres dimensions.
Une perturbation peut donc s’appréhender par l’un de ces nombreux aspects ou une combinaison de ceux-ci. Raison pour laquelle, l’outil d’analyse de cet indice devra embarquer l’ensemble de ces données et offrir des fonctionnalités exploratoires pour cibler la dimension et le grain analytique pertinent. Il s’agit donc d’avoir une approche pragmatique sur l’observation des possibles plutôt que d’empiler séparément les rapports sur tous les angles ou de limiter l’analyse à une seule de ces visions.
Bibliographie
Appelbaum Denis [et al.] Impact de l’analyse commerciale et des systèmes d’entreprise sur la comptabilité de gestion [Article] // Revue internationale des systèmes d’information comptable. – 2017. – Pages 29-44 : Vol. 25.
Asch David Contrôle stratégique : un problème à la recherche d’une solution [Journal]. – [s.l.] : Planification à long terme, 1992. – Vol. Vol. 25, n°2, p. 105-110.
Daft RL et Lengel RH IRichesse de l’information : une nouvelle approche du comportement managérial et de la conception de l’organisation [Journal]. – [s.l.] : BM Staw et LL Cummings (éds.), Research in Organizational Behavior, 1984. – Vol. Vol. 6.
Denis Jean Philippe Retour sur les principes d’articulation entre contrôle et stratégie – Une perspective ago-antagoniste [Conference] // Conférence de l’AIMS. – Paris : [s.n.], 2002. – Vol. 11.
Duncan Robert Caractéristiques des environnements organisationnels et incertitude environnementale perçue [Journal]. – [s.l.] : Administrative Science Quarterly, 1972. – Vol. Vol. 17, n° 3.
Fayol Henri. Administration générale industrielle [Book]. – 1918.
Jayakrishnan Mailasan, Bin Mohamad Adbul Karim et Bin Mokthar La vision holistique de l’intelligence d’affaires (BI) et de l’analyse de données volumineuses (BDA) pour la conception d’un cadre de gestion de la performance stratégique : une étude de cas [Article] // Journal des technologies de l’information théoriques et appliquées. – 2018. – 15 avril 2018. – Vol. Vol.96. Non 7.
Kohtamäki Markoand Stratégie en temps réel et Business Intelligence [Book]. – Vassa : Université de Vaasa, 2017.
Krasner Saül L’omniprésence du chaos [Book]. – Washington DC : Association américaine pour l’avancement des sciences, 1990.
Lorenz Edouard Prédictibilité : le battement d’ailes d’un papillon au Brésil peut-il provoquer une tornade au Texas ? [Conference] // Association américaine pour l’avancement des sciences (AAAS). – 1972.
Lorenz Edouard Flux non périodique déterministe [Journal]. – [s.l.] : Journal des sciences de l’atmosphère, 1963.
Lorino Philippe Comtes et récits de la performance [Book]. – Paris : les Éd. d’Organisation, 1995.
Benoit Mandelbrot La géométrie fractale de la nature [Book]. – [s.l.] : WH Freeman, 1892.
Thiétart Raymond-Alain et Forgues Bernard La dialectique de l’ordre et du chaos dans les organisations [Journal]. – [s.l.] : Revue française de gestion, 2006. – pages 47 à 66 : Vol. n° 160.
Thiétart Raymond-Alain Management et complexité : Concepts et théories [Journal]. – Paris : Dauphine stratégie marketing prospective, 2000. – Vol. Cahier n°282.