A travers trois exemples, ce petit article a pour objectif de nous rappeler que le fait de mettre en œuvre de nouveaux outils ne dispense pas de la recherche des causes des problèmes et de chercher à les résoudre à la source.
Le premier exemple que je voudrais utiliser concerne les réseaux sociaux d’entreprise. En effet, ces dernière années, nombre d’entreprises ont mis en place des réseaux sociaux à différentes échelles. On ne compte plus le nombre d’articles qui racontent les échecs de ces projets. Les causes mises en avant sont le plus souvent le manque d’attention porté aux usages des collaborateur. De mon point de vue, le problème est plus profond que ça et pour le comprendre, il convient de s’interroger sur la raison qui pousse les entreprises à mettre en place ces réseaux sociaux d’entreprises. J’en critiquerai deux parmi les plus fréquentes :
Dans aucun de ces cas, le réseau social d’entreprise n’est la solution. S’il y a un problème de transversalité, la solution sera organisationnelle (entreprise agile, entreprise libérée et autres formes d’ad-hocraties) ou humaine (lieux de sérépendicité, etc.). Au sein de cette solution organisationnelle, le réseau social d’entreprise peut certes avoir un rôle à jouer, mais uniquement s’il s’inscrit dans un cadre plus large. S’il s’agit de favoriser la capitalisation en encourageant les collaborateurs à publier leurs travaux, encore une fois, la réponse n’est pas dans le réseau social. Elle est justement dans le fait d’encourager les collaborateurs à publier. Le support n’est que secondaire et il existe beaucoup d’alternatives (blog, site dédié, sharepoint, etc.). Certaines entreprises donnent des primes pour les publications. D’autres financent les déplacement aux conférences. D’autres encore les inscrivent comme objectifs personnel de l’année. La bonne solution est celle qui correspond à la culture de l’entreprise et, si elle nécessite un outil, il doit faire partie d’une solution plus générale.
Le second exemple que je voudrais utiliser concerne les data lake, base du stockage Big Data. Pour bien comprendre l’erreur commise par nombre de décideurs, il faut comprendre les enjeux qui se portaient sur les données et leur stockage avant l’avènement des stockages NoSQL. A cette époque, on trouve principalement deux types de stockages : les fichiers et les données structurées en base. Dans ce dernier cas, une des difficultés pour les stocker consistait à définir un modèle de donnée, à le faire évoluer (ainsi que les données !) et à définir les référentiels attenants. La grande nouveauté apportée par l’approche Data Lake a été de supprimer ce besoin de définir un modèle pour les données stockées puisque ces outils permettent de stocker les données dans n’importe quel format. Toutefois, ce n’est pas pour autant que cela supprime le besoin de réfléchir au modèle de données d’entreprise et au référentiels. En effet, la première finalité de ces derniers n’est pas de définir le format de stockage des données : ce n’est là qu’un effet de bord. Leur première finalité est de pouvoir servir de support aux échanges au sein de l’entreprise ; de s’assurer qu’un chiffre a la même signification pour tous. C’est-à-dire qu’ils permettent de définir une sémantique partagée du modèle de données de l’entreprise. Outre la nécessité de cette vision partagée pour permettre une vision agrégée au niveau de l’entreprise, elle est également un accélérateur de toute transformation SI : si la sémantique et les modèles de données sont définis, une approche fonctionnelle est suffisante pour répondre à l’évolution des processus.
Dans de nombreux cas, la technologie, en permettant de traiter la partie émergée de l’iceberg de la gestion des données a conduit les entreprises à ignorer ces enjeux. C’est ce manque de réflexion globale à l’échelle de l’entreprise qui est d’ailleurs aujourd’hui la principale cause d’échecs lorsqu’il s’agit de passer du POC à l’application en production. La conception de référentiels de données reste nécessaire. Elle servait avant à définir le format des données. Elle sert aujourd’hui à documenter la donnée. Cela reste nécessaire pour l’utiliser et l’échanger.
Enfin, le dernier exemple que je voudrais utiliser concerne la simulation numérique et le HPC avec une attention particulière sur les architectures de calcul. En effet, pour différentes raisons, de nombreux chercheurs ou ingénieurs travaillent à la conception de codes les utilisant en oubliant la vue globale sur leur problématique. Dans la plupart des applications HPC, l’enjeu est soit de réduire le temps d’exécution, soit de permettre à des problèmes plus complexes d’être traités. Pour y parvenir, il n’est pas toujours nécessaire de se tourner vers le supercalculateur. Cette approche est très réductrice et oublie d’autres facteurs importants dont la modélisation mathématique et les algorithmes de résolution employés. De nombreux travaux montrent que ces deux éléments ont eu dans l’ensemble un impact plus important sur les capacités de calcul au cours de 30 dernières années que la seule augmentation de capacité de supercalculateurs qui double pourtant tous les 18 mois. Par exemple, l’utilisation de méthodes dites de bases réduites a permis de diminuer la dimension des problème tout en garantissant un résultat précis. Nous pouvons même trouver un certain nombre d’exemple où de meilleurs résultats sont obtenus sur des infrastructures moins puissantes. L’exemple présenté par Salli Moustafa est assez saisissant. Un autre exemple est disponible là dans le domaine de l’exploration pétrolière.
Ces différents exemples illustrent une fuite en avant où la technologie sert de prétexte pour ne pas traiter les problèmes de fonds. Bien sûr, la technologie peut-être un élément de réponse mais elle ne doit pas devenir la réponse dans son ensemble. Dans certains cas, la mise en place de nouvelles technologies peut faire apparaître de nouveaux usages qui répondent au problème initial. Par exemple les outils collaboratifs permettant à plusieurs personnes de travailler sur le même document simultanément ont changé nos façon de travailler en équipe. N’oublions toutefois pas que c’est pour faire émerger cette nouvelle façon de travailler qu’ils ont été conçus. De façon générale, c’est le nouvel usage qui est la solution à rechercher et son émergence nécessite souvent plus que le simple déploiement d’un outil technologique. Dans l’entreprise, cela passe le plus souvent également par de l’accompagnement et la formation. Dans la vie quotidienne, le marketing et la communication peuvent remplir ces offices comme l’illustre le changement d’habitudes induits par les smartphones.
Le fait que ces exemples se produisent à une aussi large échelle illustre le fait que ces problèmes (interactions humaines intra-organisationnelle, gestion des données d’entreprise ou simulation numérique) sont des problèmes intrinsèquement complexes… Et c’est une bonne nouvelle : à l’heure où l’on cherche à utiliser l’intelligence artificielle pour automatiser nos activités récurrentes, voici des domaines dans lesquels la créativité de l’humain a encore toute sa place !