Entre inflation et baisse de trésorerie, la conjoncture économique s’est dégradée en 2023. La Banque de France avait annoncé en novembre dernier une faible croissance « sur un rythme ralenti », de l’ordre de 0,1 % à 0,2 %, au quatrième trimestre. L’heure est aujourd’hui, pour les entreprises, à un retour sur investissement réaliste et réalisable, et ces dernières souhaitent donner en 2024 la priorité aux projets dont le délai de rentabilisation est plus court. Pour atteindre ces objectifs, les entreprises ont besoin de prendre des décisions pilotées par des données de qualité, permettant une analyse d’une très grande finesse et précision.
Directions, IT et métiers : l’heure est à la conciliation concernant les plateformes de données
Une étude d’IDC indique que les dirigeants préfèrent massivement adopter des plateformes de données plus globales plutôt que de combiner des solutions spécifiques. Mais les professionnels du secteur des données sont plus mitigés, affirmant que les solutions de données généralistes ne peuvent pas répondre aux questions spécifiques concernant les indicateurs de performance d’un département ou d’une fonction.
Au cours de la nouvelle année, les organisations tenteront de concilier de manière rentable des volontés divergentes (tels que résoudre des problèmes spécifiques avec des solutions de niche ou opter pour des solutions plus généralistes), en adoptant, par exemple, des plateformes de données modulaires. Ces dernières répondent aux besoins globaux de l’organisation, tout en s’adaptant aux besoins spécifiques des départements ou fonctions grâce à la personnalisation de l’interface utilisateur.
Avec la montée du SaaS, de l’hybride et multi-cloud, la qualité et la protection des données restent des préoccupations majeures
Grâce à l’adoption généralisée du SaaS et à la montée des stratégies « hybride et multi-cloud », de nombreuses entreprises ont réussi à éliminer les silos qui entravent l’accès aux données et aux informations pertinentes. Certaines ont vu leurs indicateurs de performance s’améliorer et ont réussi à tirer profit de ces innovations. Néanmoins, les préoccupations concernant la gestion, la qualité et la sécurité des données restent une source d’inquiétude pour les entreprises, qui misent de plus en plus sur leurs données. De même, ces questions demeurent un sujet de vigilance pour les éditeurs de logiciels, qui sont directement ou indirectement impliqués dans la manipulation des données.
La gouvernance des données, un élément moteur de la Data Intelligence
Alors que de nouvelles réglementations voient le jour ou se renforcent, à l’image de l’AI Act ou du Digital Services Act, les entreprises devront plus que jamais veiller à ce que les données répondent à toutes les exigences réglementaires en vigueur dans chaque secteur.
Les solutions de sauvegarde et de protection des données ont présidé aux débuts de la gouvernance des données. Bien qu’elles soient toujours utiles pour répondre aux exigences réglementaires, ces solutions peuvent dans certains cas entraver l’exploitation efficace des données.
Lorsque les données sont enfermées trop “hermétiquement”, il devient très difficile de comprendre comment elles sont utilisées, déplacées ou consultées. La gouvernance des données est vitale afin de trouver le meilleur équilibre entre accès simple à des données de qualité facilement compréhensibles, conformité avec les réglementations en vigueur et respect des règles de sécurité. Les solutions innovantes de Data Intelligence permettent de relever ce défi en assurant un meilleur niveau d’alignement avec la stratégie et une collaboration accrue entre tous les acteurs de l’entreprise en combinant des fonctionnalités avancées de data catalog, meta data management, data lineage, data quality…
Dans ce contexte, l’accès simplifié à des métadonnées est fondamental : en fournissant du contexte, de la clarté et de la structure aux données brutes, il permet de comprendre précisément la nature de chaque donnée (définition, origine, niveau de fraîcheur, indice de confiance …) pour accroître le niveau de confiance et de maturité des utilisateurs.
Qualité des données : une condition sine qua non pour le déploiement réussi de l’IA
Bien que l’intelligence artificielle puisse parfois sembler submerger le monde des affaires, ce n’est pas encore une réalité généralisée. Les entreprises hésitent encore à procéder à des déploiements complets à grande échelle dans un avenir proche, faute de données suffisamment fiables et entièrement exploitables.
Dans les prochains mois, il sera essentiel pour les entreprises de bénéficier de données de qualité afin d’optimiser les processus d’apprentissage des algorithmes de machine learning et d’exploiter pleinement les solutions d’intelligence artificielle. Les métadonnées joueront également un rôle crucial dans ce contexte, en garantissant la transparence et la traçabilité des décisions et initiatives data-driven.
Ainsi, l’objectif des entreprises ces prochains mois est de préparer leurs collaborateurs et leurs données à un déploiement de l’IA à grande échelle. Ce processus implique la catégorisation, la vérification et la compréhension de vastes quantités de données, ainsi que la formation pratique des utilisateurs et le test sur de premières applications d’IA ciblées sur des sujets business très précis.
Par Hervé Chapron, PDG de Semarchy