La transformation digitale a commencé bien plus tôt que nous le pensons. Si l’expression est à la mode, c’est que l’on mesure mieux aujourd’hui les impacts sur nos fonctionnements et processus où le multicanal est devenu roi.

Cette transformation a réellement commencé quand l’informatique de gestion s’est développée, car on a dû extraire des documents papier manipulés par les entreprises les quelques données significatives ou obligatoires pour alimenter les logiciels de gestion. Quelques informations pour la comptabilité, un peu plus pour la gestion de stocks ou le suivi des commandes.

Certaines données sont même devenues nativement « électroniques » pour alimenter le « système ». La facturation ou la paie sont bien souvent le résultat de données saisies qui alimentent un logiciel pour finir par être matérialisées et synthétisées en un document encore fréquemment papier (la facture, le bulletin de paie, …)

Déjà à l’époque il fallait repenser son organisation avant de « l’informatiser », car, comme aujourd’hui, les modifications apportées aux processus par l’informatique supposaient leur transformation. L’informatique n’est pas une solution mais un moyen ; si les processus sont en pagaille, les informatiser sans les repenser donne … la « pagaille vite ».

Ce qui, à l’évidence, n’est pas le plus facile pour s’y retrouver !

 

Alors vraiment, rien de nouveau sous la silicone ?

La vague de l’informatique est passée, impactant tous les processus de l’entreprise qui se sont adaptés pour tirer plus ou moins bien profit de ces nouveaux outils. Chaque service a identifié ses processus clés, les données nécessaires, les documents qui les portent, les méthodes d’acquisition, les étapes et règles de transformation et les restitutions nécessaires. Le monde a été envahi de logigrammes et de MCD (Modèles Conceptuels de Données) séparant deux mondes : celui des data et celui de documents.

  • La data c’était le flux, l’information essentielle mise à jour et la clé de la décision.
  • Le document c’était la source ou le résultat, le garant du processus et surtout de « l’engagement », notamment quand il valide le transfert de responsabilité ou l’accord entre deux parties.Deux évolutions majeures sont venues bousculer le paradigme :

Les documents, que l’on dématérialise ou non, ont eu la possibilité et la légitimité d’être nativement immatériels. Les sources de capture de l’information se sont multipliées. Le web a eu, entre autres, comme conséquence de faire saisir de l’information de façon beaucoup plus répartie et à de (très) nombreux interlocuteurs. Le smartphone a amplifié le phénomène et la nouvelle révolution en cours, le « M2M » (machine to machine) va l’accélérer de façon exponentielle car les capteurs, plus ou moins pertinents, fleurissent et génèrent une masse d’information toujours plus importante.

Des systèmes rarement pensés pour une telle richesse d’information.

Nos organisations sont aujourd’hui souvent structurées autour de logiciels « métier » qui s’alimentent des informations, jugées clés, capturées, saisies ou extraites de leur support d’origine (souvent un document ou un autre outil métier).
Ce mode de fonctionnement porte quelques conséquences :

  • Les processus sont « égoïstes », ils s’approprient le ou les documents associés, en extraient les données clés, parfois associent une image du document pour pouvoir le mettre aux archives le plus vite possible. Le document n’en ressortira finalement que pour litige ou destruction. Il en va ainsi de la facture (fournisseur ou client), du contrat et de tout autre document déclaratif ou commercial.
  • Les informations de détail ne sont extraites que par opération d’audit ou ponctuelle, rarement de façon systématique et toujours de façon prédéfinie et ciblée.
  • Les informations non extraites au premier traitement ne le seront finalement pratiquement jamais, les rendant invisibles et inaccessibles à d’autres processus ou d’autres services.

On comprend finalement que les informations sont mises à disposition selon les « a priori » du système de gestion et en se concentrant, pour des raisons économiques évidentes à l’échelle du processus, sur ce qui paraît essentiel au dit processus porteur.

Le fiable se cache dans les détails

Conscientes du cloisonnement néfaste induit par cette mécanique naturelle d’appropriation du document et des data par les processus, les entreprises et éditeurs ont apporté des réponses transverses :

  • Développement des ERP pour favoriser le partage de données dans l’entreprise.
  • Mise à disposition de web services pour favoriser le partage inter applications et inter systèmes.
  • Création de Data Warehouses pour alimenter la BI de données issues de bases de données hétérogènes souvent trop couteuses à réconcilier.
  • Mise en place de GED pour partager les documents.

Des solutions en surcouches qui pallient le cloisonnement induit par le traitement initial et redonnent une vision d’ensemble au décideur dont le poids de la décision est inversement proportionnel au cloisonnement de sa fonction et de sa pensée.
Notre décideur se heurte alors au fait que les données non extraites au départ ne sont pas à sa disposition. De nouveaux concepts surgissent : Bigdata, text-mining, indexation du flou, … Google en a fait son fonds de commerce.

Pour avoir de nouvelles hypothèses, et donc les idées claires, le décideur a besoin de sortir des « a priori » et d’un volume de données significatif pour les corroborer. Les statisticiens le savent c’est en analysant, de façon neutre, un panel significatif (en qualité et/ou en volume) que l’on dégage les nuages de points qui permettent les constats éclairants. Le contraire de l’approche structurelle de nos SI de gestion.

Pourtant l’information est bien là.

Certes déstructurée, plus difficile d’accès, non intégrée au SI déterministe, mais bien là, tout simplement dans les documents reçus ou émis par l’organisation. L’informatique a perdu son sens premier « d’information automatique » au profit du traitement automatisé de données spécifiques au service de processus particuliers. Nous avons juste oublié que l’écrit, le document, était finalement la première mémoire auxiliaire.

La technologie permet maintenant d’extraire à la demande ou de façon systémique, toute l’information des documents quelle que soit leur forme (papier ou électronique). La puissance de calcul et le génie mis dans certains algorithmes permettent l’indexation du flou et la rétro- conversion des données extraites pour alimenter des bases de données structurées. Le « machine learning », cette capacité des systèmes à apprendre de leur expérience, évite le gaspillage du temps des experts en enrichissant automatiquement des bibliothèques de règles. Le traitement de masse devenu possible permet de créer des référentiels polymorphes, donc mieux adaptés, à des besoins en évolution constante.

Un exemple concret ? Alors que depuis des années on modélise les achats dans une chaîne « catalogue – commande – réception – facture » pour valider que la facturation correspond bien aux commandes ; les nouvelles technologies permettent d’aller chercher les lignes de facture, de créer des référentiels spécifiques, d’analyser toutes les dépenses réelles de façon exhaustive et de vérifier non seulement leur conformité, mais également leur nécessité au regard de l’usage par comparaison avec des indicateurs métier. Il s’en suit un rapprochement beaucoup plus pertinent : les consommations face aux besoins ; une vision beaucoup plus large, juste et assurément rentable du poste Achats.

A l’instar des conservateurs du musée du Caire (qui ont trouvé la momie de la reine Hatchepsou en 2007 … dans leur cave, alors qu’elle y était conservée, non identifiée, depuis sa découverte en 1903), n’ignorez pas les trésors sous vos pieds, valorisez vos documents et donnez vie aux golden data enfouis dans vos archives.

Mariez document et data, pensez des processus plus ouverts et intégrez des outils qui permettent cette union pour vos projets de transformation digitale pour ne pas piloter avec des « a priori » et une vision limitée à ceux-ci !