Comment créer, exécuter et gérer des analyses de données évolutives et l'IA pour les entreprises

Dans la partie 2 de notre minisérie axée sur la création d'un flux de travail d'analyse de données, nous examinons comment le développement d'un pipeline de données peut libérer une réelle valeur commerciale.

Points essentiels à retenir

  • Pour que les entreprises FSI exploitent pleinement la valeur de l'IA et de l'analytique, elles doivent déterminer comment opérationnaliser les données à grande échelle

  • L'adoption d'une approche DataOps et ModelOps permettra aux entreprises FSI de créer des analyses et une IA agiles et automatisées qui peuvent être gérées, surveillées et conformes en même temps

  • L'automatisation du processus sera la clé du développement d'une plateforme évolutive pour prendre en charge des centaines de projets d'analyse et d'IA et, en fin de compte, extraire une valeur commerciale réelle à partir d'un volume massif de données d'entreprise.

author-image

Par

Le principal défi consiste à établir une plateforme évolutive capable de fournir de l'IA ou des analyses avancées à l'ensemble de l'entreprise.

L'intelligence artificielle (IA) et l'analytique avancée contribuent à transformer le secteur des services financiers (FSI) à l'ère numérique. De nombreuses organisations utilisent déjà ces technologies dans un large éventail d'applications allant de la gestion des risques, la prévention des fraudes et le trading à haute fréquence à l'automatisation des processus robotiques et à la personnalisation de l'expérience client.

Les organisations financières ont toujours été à la pointe de la technologie en raison de la nature de leurs activités. Elles sont connues pour leur capacité d'adopter les nouvelles technologies beaucoup plus tôt que les autres industries. Cependant, les progrès peuvent s'accompagner d'obstacles et le monde financier a relevé le défi de savoir comment gérer l'IA évolutive et l'analyse avancée bien plus tôt que les autres secteurs.

« Le principal défi est de savoir comment assurer une plateforme évolutive capable de fournir de l'IA ou des analyses avancées à l'échelle de l'entreprise », a déclaré Parviz Peiravi, Global CTO/Principal Engineer, Financial Services Industry à Intel. « La valeur de l'IA et de l'analyse ne peut être déverrouillée que si les organisations trouvent comment opérationnaliser les données à grande échelle. »

 

Préparation et extraction des données

La première étape est la découverte des données, mais une fois les données en place, que se passe-t-il ensuite ? Les entreprises doivent décider comment développer ce pipeline afin d'obtenir de véritables informations commerciales grâce à l'IA et à l'analyse.

Après la découverte des données, la deuxième étape du processus consiste à décider du type de données à utiliser et des fonctionnalités importantes pour chaque modèle d'IA ou d'analyse. En fonction du cas d'utilisation et du modèle requis, les caractéristiques pertinentes des données peuvent être choisies. Il est ensuite nécessaire de déterminer comment extraire ces fonctionnalités des données brutes et comment les diviser en ensembles de données d'entraînement et de test utilisables.

La troisième étape est l'ingénierie de sélection des fonctionnalités et l'exploration des modèles. Les disparités entre les données sont courantes et si les ensembles de données proviennent de sources différentes, certaines fonctionnalités peuvent être manquantes ; il est donc nécessaire de trouver un moyen de combler ces lacunes. L'exploration de schémas est ensuite réalisée pour identifier des caractéristiques dans les données afin de déterminer ce que le modèle va explorer. Pour la quatrième étape, les données sont ensuite transformées en un ensemble fonctionnel afin qu'elles puissent alimenter directement l'algorithme pour générer le modèle. Tout cela fait partie du processus de préparation des données. Afin de développer un modèle d'IA ou d'analyse utilisable, ces étapes supplémentaires sont toutes essentielles après la collecte et le prétraitement initiaux des données. 

Ces étapes de préparation des données sont généralement manuelles. Aujourd'hui, certains aspects du processus ont été automatisés, mais le défi de savoir comment automatiser entièrement le processus de sélection des fonctionnalités est un sujet brûlant. Cela est particulièrement difficile, car les modèles nécessitent souvent des milliers de fonctionnalités. En conséquent, la création d'une infrastructure capable de prendre en charge la préparation automatisée des données pour le développement de modèles est actuellement un objectif clé. Ce processus de préparation des données fait partie intégrante de l'approche de flux de travail DataOps.

 

Analyse et développement de modèles

Une fois l'étape de préparation des données terminée, nous passons à l'étape cinq – le développement du modèle, où le modèle est formé à l'aide de l'ensemble de données. Après le développement, chaque modèle doit ensuite être testé et évalué. Le prochain défi est de savoir comment le mettre en production. Pour une entreprise avec des centaines de ces modèles, cela signifie des centaines de pipelines de données.

La sixième étape examine comment opérationnaliser des centaines de modèles. Non seulement les entreprises doivent garantir l'exactitude des modèles, mais elles doivent également s'assurer qu'ils sont explicables et qu'ils respectent la conformité. Ces modèles doivent être surveillés en permanence afin d'évaluer leur niveau de performance et de précision, en fonction des besoins.

« Au fur et à mesure que les données changent avec le temps, le comportement du modèle peut également changer, produisant potentiellement une sortie inexacte », a déclaré Peiravi. « Cela est connu sous le nom de dérive du modèle, un autre aspect du processus qui doit être géré. Et avec des milliers de modèles à gérer, il est essentiel que les entreprises sachent comment les trouver. Des référentiels et des registres sont nécessaires pour qu'un modèle certifié et enregistré puisse être exécuté dans un environnement de production, similaire au concept « d'image dorée » pour les machines virtuelles qui est utilisé dans l'informatique depuis des années. »

Cette approche ModelOps examine comment les entreprises peuvent opérationnaliser un modèle depuis le stade où il est développé par des scientifiques des données jusqu'au point où il est remis à l'équipe opérationnelle informatique pour l'exécuter en production. ModelOps et DataOps sont essentiels à la création, l'exécution et la gestion d'une IA et d'une analyse évolutives pour l'entreprise, en utilisant un pipeline CI/CD.

« Ce que nous essayons de faire ici, c'est d'appliquer une philosophie, des outils et un processus de développement logiciel au développement de modèles et de pipelines de données », a déclaré M. Peiravi.

Les défis de l'opérationnalisation de l'IA et de l'analyse à grande échelle

Ce processus est encore loin d'être sans heurts, les organisations devant faire face à un certain nombre d'obstacles qui les empêchent d'opérationnaliser avec succès les projets d'IA. Selon un rapport de Gartner 1, quelque 47 % des personnes interrogées citent la difficulté de déploiement dans les processus et applications métier comme principal obstacle à la création de valeur commerciale. Les autres obstacles les plus courants cités sont la résistance culturelle, le manque de processus DevOps, de compétences pertinentes et l'incapacité à sécuriser ou à gouverner correctement les données et les entrées ou sorties analytiques. D'autres obstacles clés comprennent une mauvaise planification, le manque de soutien et de financement de la direction et l'incapacité de résoudre les problèmes de qualité et d'intégrité des données, indique le rapport.

Les organisations semblent également avoir du mal à travailler en collaboration sur les étapes importantes nécessaires au développement de modèles d'analyse et d'IA, selon la recherche TDWI2. Les participants ont été invités à évaluer dans quelle mesure les parties prenantes de leur organisation collaborent pour franchir les étapes clés du cycle de vie des projets d'IA et d'analyse. Les résultats ont montré qu'ils étaient plus forts dans l'identification des sources de données pertinentes et dans l'identification des opportunités pour obtenir des avantages commerciaux. Cependant, seul un très petit pourcentage a qualifié leur organisation d'« excellente » tandis que moins de la moitié (42 %) ont donné des notes élevées pour la collaboration sur le développement et le test de modèles d'analyse.

Surmonter ces défis sera vital pour gérer les données évolutives et l'IA à l'avenir. Les organisations doivent également avoir une infrastructure sous-jacente appropriée en place. Intel fournit une technologie fondamentale pour permettre aux entreprises FSI de construire une plateforme solide et évolutive, comprenant tout, des technologies de réseau et de stockage à l'infrastructure informatique et aux technologies de mémoire. Intel propose également une technologie spécifique pour l'IA et l'analyse avancée, telle que des cadres optimisés, des bibliothèques et des outils pour les solutions à code source ouverts et les solutions commerciales.

« La technologie Intel couvre les quatre couches cruciales nécessaires à l'IA et à l'analyse avancée -

infrastructure matérielle, logiciel système, cadres et applications », a déclaré Peiravi. « Cela permet aux entreprises FSI de créer une plateforme évolutive pour offrir différentes capacités nécessaires à différents projets. » En outre, Intel travaille en permanence avec un grand nombre de partenaires de l'écosystème pour lancer de nouvelles technologies qui répondent aux défis sans cesse croissants de l'analyse avancée et de l'IA pour le secteur des services financiers.

Afin de libérer tout le potentiel de l'IA et de l'analyse avancée, les organisations devront peut-être s'éloigner du processus qu'elles ont utilisé dans le passé. Le défi de l'opérationnalisation de l'analytique avancée et de l'IA à grande échelle exige une nouvelle approche. L'adoption d'une approche DataOps et ModelOps permettra aux entreprises FSI de créer des modèles d'analyse et d'IA agiles et automatisés qui pourront être déployés de manière rentable dans un processus évolutif et géré conformément à la politique et à la réglementation internes. Cela permettra aux organisations d'améliorer leur prise de décision basée sur les données, ce qui se traduira par une réelle valeur commerciale. Bien que cette approche soit encore un concept relativement nouveau, c'est quelque chose qui est susceptible d'être adopté à une échelle beaucoup plus large par les entreprises du secteur financier et au-delà dans les mois et les années à venir.

Au cas où vous l'auriez manqué, consultez la partie 1 - Données unifiées : votre entreprise a besoin d'un lieu magnifiquement connecté, et non de quatre bâtiments aléatoires - pour en savoir plus sur la phase initiale de découverte des données et le défi de l'unification des données.

Infos sur le produit et ses performances

1How to Operationalize Machine Learning and Data Science Projects : https://www.gartner.com/en/documents/3880054/how-to-operationalize-machine-learning-and-data-science-
2TDWI Best Practices Report : Faster Insights from Faster Data ;https://tdwi.org/whitepapers/2020 /04/data-all-sas-tdwi-bpr-faster-insights-from-faster-data.aspx