Comment faciliter et accélérer l’industrialisation de vos projets d’IA ?

Comment industrialiser ses projets IA ?

L’intégration de services appuyés par l’intelligence artificielle (IA) devient un levier stratégique pour les entreprises. Elles peuvent ainsi transformer leur interaction avec leurs clients, optimiser leurs processus internes et innover dans leur offre de service. Plus précisément, c’est l’industrialisation des Large Language Models (LLM) qui offre dès aujourd’hui des possibilités inédites en matière de traitement automatique du langage naturel (NLP). Gartner affirme d’ailleurs que l’ambition en matière d’IA doit être une priorité absolue pour les DSI au cours des 12 à 24 prochains mois (source : Gartner).

Pour autant, peu d’entreprises ont la capacité de développer leur propre LLM, et les modèles disponibles sur le marché (ChatGPT et consorts) n’ont aucun accès aux données des entreprises. Heureusement, il existe une approche qui rend le recours à une LLM accessible au plus grand nombre !

Alexis de Saint Jean, Directeur de l’innovation Blueway, nous dévoile cette approche et les mécanismes qui rendent possible cette industrialisation de l’IA, même pour les entreprises de taille intermédiaire.

Peux-tu nous dire ce qu’est un LLM et son rapport avec l’IA ?

Un Large Language Model (LLM) sert à « motoriser » les IA génératives comme ChatGPT, Google Gemini ou encore Mistral (modèle Français !). Il est basé sur des architectures de réseaux de neurones profonds, spécifiquement l’architecture Transformers, conçus pour traiter et générer du langage naturel à une échelle massive en ajoutant le mécanisme d’attention. Ces modèles sont entraînés sur des téraoctets de données (pré-entrainement), ce qui leur permet d’apprendre une vaste gamme de contexte. Grâce à l’apprentissage non supervisé ou semi-supervisé sur ces larges corpus généralistes, les LLM acquièrent la capacité de réaliser des tâches de traitement du langage naturel (NLP) de base comme la compréhension de texte, la génération de contenus ou la traduction automatique en déduisant des réponses pertinentes basées sur le contexte fourni. Leur performance repose sur le nombre de paramètres du modèle, souvent comptés en milliards, qui capturent les relations complexes entre les éléments du langage humain. Pour créer ces LLM, il faut donc des structures très conséquentes. Leur entrainement se chiffre en millions de dollars (400 millions de dollars pour l’entrainement du LLM d’Open IA uniquement sur une année par exemple, source https://fortune.com)

Comment des PME et des ETI peuvent profiter d’un LLM puisqu’elles n’ont pas les moyens de le développer ?

Il faut tout de suite identifier le gros problème de ces LLM « généralistes » : ils n’ont pas accès aux données des entreprises qui ne sont pas accessibles depuis le web. Ces LLM ne leur servent donc pas à grand-chose en l’état. L’enjeu est donc de faire connaître à ces modèles le « contexte » de l’entreprise, c’est-à-dire son vocabulaire et ses informations, sans entrer dans des phases d’entrainements compliquées et couteuses… et tout en gardant la maitrise de ses données ! Pour répondre à cet enjeu, il existe un mécanisme nommé « RAG ». C’est-à-dire la Génération Augmentée de Récupération (ou RAG pour Retrieval Augmented Generation), qui est un processus consistant à optimiser le résultat d’un LLM via une base de données vectorielles interne à l’entreprise. La RAG est donc une technique qui permet aux grands modèles de langage d’exploiter des ressources de données supplémentaires sans réentraînement.

Comment mettre en œuvre ce RAG au sein de l’entreprise et de son Système d’Information ?

La plateforme de données Phoenix peut être un acteur complet des mécanismes à mettre en œuvre pour motoriser une solution de RAG interne à l’entreprise. Concrètement, un RAG compte deux composants principaux. Le premier est une base de données (BDD) vectorielles, qui va stocker comme son nom l’indique des vecteurs. Dans notre contexte, ces vecteurs représentent des documents propres à l’organisation, qui sont traités et découpés afin de pouvoir être injectés dans cette BDD. Il s’agit donc de faire dans un premier temps de la récupération de données, du traitement et de l’écriture. Tous ces mécanismes de récupération et d’injection sont orchestrés et industrialisés par Phoenix grâce à ses multiples connecteurs.

Comment faire pour interagir avec le LLM puisqu’il est externe à l’organisation ?

Lorsqu’une question est posée via le LLM, celle-ci est transformée elle aussi en vecteur et envoyée vers le RAG pour chercher dans sa BDD vectorielle les autres vecteurs les plus proches. Ce qui correspond à une recherche de similarité sémantique, qui va permettre de récupérer les documents les plus pertinents et d’alimenter le contexte du LLM. Et c’est ainsi qu’il va pouvoir construire sa réponse et générer du texte. C’est donc de cette façon qu’il est possible d’interagir avec un LLM et ses propres données. Pour résumer, si la BDD vectorielle est la première composante du RAG, la deuxième composante est sa capacité à s’interfacer avec un LLM. Et là aussi Phoenix va supporter cette mise en œuvre de récupération et d’interrogation RAG/LLM via des APIs, et donc l’industrialisation de bout en bout de ce mécanisme pour profiter d’une IA. Et pour aller plus loin, Phoenix est aussi capable d’exposer ce RAG à n’importe quel LLM, via des marketplaces d’IA comme celui d’Open AI par exemple. Ce dernier propose en effet d’accéder à des « GPTs », c’est-à-dire des agents spécialisés dans différents domaines.

Est-ce que cela signifie perdre le contrôle de ses données ?

Pas du tout. En utilisant des « GPTs » via un RAG, il est possible d’utiliser la force d’un ChatGPT avec les données de son entreprise sans jamais les exposer, puisque le LLM n’a pas eu besoin de s’entrainer avec elles. Grâce à la plateforme d’API Management de Blueway, il est en effet possible d’utiliser de façon sécurisée le contenu de la BDD vectorielle. Car c’est le LLM externe qui va venir chercher les informations dont il a besoin pour construire sa réponse via des appels APIs. Les données ne sont pas poussées vers Open AI, et les appels APIs sont sécurisés, traçables et révocables via token centralisé. Phoenix représente donc un facilitateur dans la création d’applications à valeur ajoutée utilisant des LLM et plus généralement l’IA !

Échangeons autour des projets pour garantir la cohérence de vos données à travers tout votre SI !