L’IA générative transforme l’intelligence d’affaires en permettant une prise de décision sécurisée et basée sur les données à grande échelle, en utilisant des outils comme RAG, l’IA agentique et des plateformes BI intégrées pour fournir des insights exploitables directement aux utilisateurs tout en protégeant les informations sensibles.
L’IA générative réécrit le manuel de la stratégie d’entreprise basée sur les données. Les processus laborieux deviennent automatisés et conversationnels, facilitant une nouvelle ère de « décision intelligence », caractérisée par la simple et précise mise en avant d’insights puissants exactement au moment et à l’endroit où ils sont nécessaires. C’est un monde où l’IA fait apparaître instantanément les tendances dont les dirigeants ont besoin pour prendre des décisions rapidement et en toute confiance.
Au cours des deux dernières années, nous avons assisté à des avancées majeures dans les capacités de l’IA en matière d’intelligence d’affaires, mais il y a un avertissement. Avant que les organisations puissent adopter pleinement l’intelligence d’affaires générative, elles doivent connecter les modèles d’IA à leurs données commerciales hautement sensibles d’une manière qui ne les expose pas.
La vectorisation, RAG, MCP et les compétences d’agent font partie des formats et protocoles qui aident à combler le fossé, mais dans cet espace émergent, aucune solution unique ne s’est encore imposée comme norme de l’industrie. Bien sûr, uploader des rapports financiers confidentiels et des informations personnellement identifiables sur une plateforme d’IA accessible au public comme ChatGPT est aussi sécurisé que de les poster directement sur Instagram.
Au moment où quelqu’un fournit une feuille de calcul à ces services, il est impossible de savoir si ou quand elle pourrait être divulguée publiquement, explique Cheryl Jones, spécialiste en IA chez NetCom Learning. « L’un des principaux risques de sécurité de ChatGPT est le potentiel de fuite de données involontaire », écrit-elle dans un article de blog. « Les employés pourraient saisir des informations confidentielles de l’entreprise, des données clients ou des algorithmes propriétaires dans ChatGPT, qui pourraient ensuite être utilisés dans les données d’entraînement du modèle ou exposés dans de futures sorties à d’autres utilisateurs. »
De RAG à des Insights BI riches
Plutôt que de demander directement à ChatGPT, de nombreuses organisations investissent dans la création de chatbots personnalisés alimentés par des LLM propriétaires connectés aux bases de données d’entreprise. Une façon de faire cela est d’utiliser une technique appelée « génération augmentée par récupération » ou RAG, qui renforce dynamiquement la connaissance des LLM en récupérant et en incorporant des données externes dans les réponses de l’IA, améliorant leur précision et leur pertinence. C’est une façon de « peaufiner » un modèle d’IA sans en modifier réellement les algorithmes ou l’entraînement.
Les systèmes RAG collectent des données provenant de sources externes et les décomposent en petits morceaux gérables, en s’appuyant sur des embeddings numériques stockés dans une base vectorielle, les rendant ainsi consultables par les LLM. Cela permet au LLM de faire apparaître des segments de données pertinents pour la requête de l’utilisateur, avant de les ajouter à l’invite initiale afin de générer une réponse éclairée par les données connectées.
« La base de toute mise en œuvre réussie d’un système RAG est une architecture modulaire qui relie les données brutes à un modèle linguistique via une récupération intelligente », explique Helen Zhuravel, directrice des solutions produits chez Binariks. « Cette structure permet aux équipes de maintenir des réponses précises, à jour et ancrées dans la connaissance interne, sans avoir à réentraîner le modèle à chaque mise à jour. »
Mais RAG n’est pas immunisé contre les problèmes de sécurité liés à l’alimentation directe de données dans des chatbots IA, et ce n’est pas une solution complète. RAG seul ne permet pas aux LLM de fournir une intelligence d’affaires conventionnelle, car les modèles sont toujours conçus pour produire leurs insights de manière conversationnelle. RAG ne possède pas les éléments fondamentaux traditionnels des plateformes BI. Pour générer des rapports et tableaux de bord interactifs complets, les organisations devront également intégrer une logique métier complète, un moteur de visualisation de données et des outils de gestion de données avec le LLM.
BI générative prête à l’emploi
Heureusement, les organisations ont aussi la possibilité d’acheter des systèmes BI génératifs prêts à l’emploi tels que Amazon Q dans QuickSight, Sisense et Pyramid Analytics, qui ressemblent et fonctionnent davantage comme des plateformes BI traditionnelles. La différence est qu’ils sont nativement intégrés avec des LLM pour améliorer l’accessibilité.
Avec son architecture plug-and-play, Pyramid Analytics peut connecter directement des LLM tiers à des sources de données telles que Databricks, Snowflake et SAP. Cela élimine la nécessité de construire des pipelines de données supplémentaires ou de formater les données de manière particulière. Pour protéger les informations sensibles, Pyramid évite d’envoyer des données brutes au LLM.
Dans un article de blog, le CTO de Pyramid, Avi Perez, explique que les requêtes des utilisateurs sont séparées des données sous-jacentes, garantissant que rien ne quitte l’environnement contrôlé du client. « La plateforme ne transmet que la requête en langage naturel et le contexte nécessaire au modèle linguistique pour générer la recette requise pour répondre à votre question », note-t-il.
Par exemple, si quelqu’un pose une question sur les ventes et les coûts dans différentes régions, Pyramid ne transmettra que la requête et des informations limitées au LLM, telles que les métadonnées, schémas et modèles sémantiques nécessaires au contexte. « Les données elles-mêmes ne sont pas envoyées », dit Perez. « Le LLM utilisera ses capacités d’interprétation pour nous renvoyer une réponse appropriée, que le moteur Pyramid utilisera ensuite pour rédiger, interroger, analyser et construire du contenu. »
D’autres plateformes BI génératives gèrent la connexion à la base de données différemment. Amazon Q dans QuickSight répond aux questions de sécurité en maintenant tout isolé dans les environnements AWS. De plus, Amazon promet de ne pas utiliser les prompts et requêtes des clients pour entraîner les modèles sous-jacents qui alimentent Amazon Q, afin de prévenir toute fuite de données.
Les plateformes BI génératives rendent l’intelligence d’affaires accessible et facile à naviguer. Parce qu’elles offrent des interfaces conversationnelles, les utilisateurs non techniques peuvent interagir avec elles en utilisant des prompts en langage naturel pour obtenir les réponses dont ils ont besoin. Ils peuvent aussi utiliser l’IA pour construire automatiquement des tableaux de bord et visualisations qui aident ceux qui doivent explorer davantage leurs données.
Les utilisateurs peuvent même générer des rapports entiers et des résumés contextuels, transformant des données statiques en histoires explicables, facilitant la compréhension des tendances et anomalies.
Insights exploitables avec l’IA agentique
Pour rendre l’intelligence d’affaires plus exploitable, certaines organisations ont choisi d’appliquer des pipelines RAG avec des technologies d’« IA agentique » fondamentales telles que Agent Skills et le Model Context Protocol (MCP). L’objectif est de transformer la BI d’un outil de reporting passif en un système autonome qui comprend des insights clés et peut même exécuter des tâches en fonction de ce qu’il découvre.
Agent Skills désigne une bibliothèque de capacités modulaires développée par Anthropic, permettant aux agents IA d’effectuer des actions spécifiques, comme créer des fichiers PDF, appeler une API particulière ou effectuer des calculs statistiques complexes. Ces compétences peuvent être activées par les agents selon les besoins, leur permettant d’effectuer des travaux au nom des humains.
Par ailleurs, MCP est une norme ouverte et universelle qui relie les LLM aux sources de données externes et aux outils logiciels. Elle permet aux agents IA d’accéder à des systèmes et outils en direct de manière sécurisée et structurée, sans avoir besoin de construire des connecteurs personnalisés.
Ces technologies ont des synergies qui correspondent à la portée de l’intelligence d’affaires, se combinant pour créer un nouveau type de workflow BI agentique. Si un utilisateur pose une question comme « Pourquoi les ventes sont-elles en baisse dans le Sud ? », l’agent utilisera MCP pour récupérer le contexte spécifique nécessaire pour répondre à cette question, comme le rôle de l’utilisateur, ses permissions d’accès, les rapports précédemment consultés et les données en direct du CRM de l’entreprise.
Ensuite, l’agent utilisera RAG pour récupérer des données pertinentes, telles que les plans marketing régionaux, les transcriptions de réunions, etc., afin d’identifier les raisons de la baisse des ventes. Après avoir trouvé la réponse, l’agent utilisera Agent Skills pour prendre des actions, comme générer un rapport résumé, notifier l’équipe commerciale responsable et mettre à jour la prévision budgétaire dans l’ERP.
Aruna Ravichandran, CMO de Cisco, est très optimiste quant à l’IA agentique et son potentiel à rendre « l’intelligence connectée » omniprésente dans le lieu de travail. « Dans cette nouvelle ère, la collaboration se fait sans friction », prévoit-il. « Les travailleurs numériques anticipent les besoins, coordonnent les tâches en arrière-plan et résolvent les problèmes avant qu’ils n’émergent. »
Malgré cet optimisme, RAG, MCP et Agent Skills en sont encore au stade expérimental, et beaucoup restent sceptiques quant à leur adoption à long terme. Il n’existe pas encore de cadre standard pour la construction de workflows BI agentiques, et pour l’instant, ils resteront probablement réservés aux grandes organisations disposant des ressources et des talents nécessaires pour de tels projets.
Tout le monde bénéficie d’une prise de décision améliorée par l’IA
L’accès aux données via LLM est, en un sens, un obstacle de dernière étape sur le chemin de la véritable intelligence décisionnelle, où des insights puissants peuvent être révélés par quiconque au moment où ils sont nécessaires. Une fois cette étape franchie, la prise de décision ne sera plus confinée aux équipes d’analystes ou au comité exécutif, mais intégrée dans le tissu même des opérations quotidiennes.
De plus en plus d’employés participent à la résolution stratégique de problèmes, ce qui a des implications profondes. Les organisations qui intègrent avec succès leurs propres données avec des analyses pilotées par l’IA transforment essentiellement l’information d’entreprise d’un actif silo en un langage d’action décisive que chaque employé peut comprendre.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Quelle est la meilleure façon de connecter les données de votre entreprise à l'IA ?
En Bref
L’IA générative transforme l’intelligence d’affaires en permettant une prise de décision sécurisée et basée sur les données à grande échelle, en utilisant des outils comme RAG, l’IA agentique et des plateformes BI intégrées pour fournir des insights exploitables directement aux utilisateurs tout en protégeant les informations sensibles.
L’IA générative réécrit le manuel de la stratégie d’entreprise basée sur les données. Les processus laborieux deviennent automatisés et conversationnels, facilitant une nouvelle ère de « décision intelligence », caractérisée par la simple et précise mise en avant d’insights puissants exactement au moment et à l’endroit où ils sont nécessaires. C’est un monde où l’IA fait apparaître instantanément les tendances dont les dirigeants ont besoin pour prendre des décisions rapidement et en toute confiance.
Au cours des deux dernières années, nous avons assisté à des avancées majeures dans les capacités de l’IA en matière d’intelligence d’affaires, mais il y a un avertissement. Avant que les organisations puissent adopter pleinement l’intelligence d’affaires générative, elles doivent connecter les modèles d’IA à leurs données commerciales hautement sensibles d’une manière qui ne les expose pas.
La vectorisation, RAG, MCP et les compétences d’agent font partie des formats et protocoles qui aident à combler le fossé, mais dans cet espace émergent, aucune solution unique ne s’est encore imposée comme norme de l’industrie. Bien sûr, uploader des rapports financiers confidentiels et des informations personnellement identifiables sur une plateforme d’IA accessible au public comme ChatGPT est aussi sécurisé que de les poster directement sur Instagram.
Au moment où quelqu’un fournit une feuille de calcul à ces services, il est impossible de savoir si ou quand elle pourrait être divulguée publiquement, explique Cheryl Jones, spécialiste en IA chez NetCom Learning. « L’un des principaux risques de sécurité de ChatGPT est le potentiel de fuite de données involontaire », écrit-elle dans un article de blog. « Les employés pourraient saisir des informations confidentielles de l’entreprise, des données clients ou des algorithmes propriétaires dans ChatGPT, qui pourraient ensuite être utilisés dans les données d’entraînement du modèle ou exposés dans de futures sorties à d’autres utilisateurs. »
De RAG à des Insights BI riches
Plutôt que de demander directement à ChatGPT, de nombreuses organisations investissent dans la création de chatbots personnalisés alimentés par des LLM propriétaires connectés aux bases de données d’entreprise. Une façon de faire cela est d’utiliser une technique appelée « génération augmentée par récupération » ou RAG, qui renforce dynamiquement la connaissance des LLM en récupérant et en incorporant des données externes dans les réponses de l’IA, améliorant leur précision et leur pertinence. C’est une façon de « peaufiner » un modèle d’IA sans en modifier réellement les algorithmes ou l’entraînement.
« La base de toute mise en œuvre réussie d’un système RAG est une architecture modulaire qui relie les données brutes à un modèle linguistique via une récupération intelligente », explique Helen Zhuravel, directrice des solutions produits chez Binariks. « Cette structure permet aux équipes de maintenir des réponses précises, à jour et ancrées dans la connaissance interne, sans avoir à réentraîner le modèle à chaque mise à jour. »
Mais RAG n’est pas immunisé contre les problèmes de sécurité liés à l’alimentation directe de données dans des chatbots IA, et ce n’est pas une solution complète. RAG seul ne permet pas aux LLM de fournir une intelligence d’affaires conventionnelle, car les modèles sont toujours conçus pour produire leurs insights de manière conversationnelle. RAG ne possède pas les éléments fondamentaux traditionnels des plateformes BI. Pour générer des rapports et tableaux de bord interactifs complets, les organisations devront également intégrer une logique métier complète, un moteur de visualisation de données et des outils de gestion de données avec le LLM.
BI générative prête à l’emploi
Heureusement, les organisations ont aussi la possibilité d’acheter des systèmes BI génératifs prêts à l’emploi tels que Amazon Q dans QuickSight, Sisense et Pyramid Analytics, qui ressemblent et fonctionnent davantage comme des plateformes BI traditionnelles. La différence est qu’ils sont nativement intégrés avec des LLM pour améliorer l’accessibilité.
Avec son architecture plug-and-play, Pyramid Analytics peut connecter directement des LLM tiers à des sources de données telles que Databricks, Snowflake et SAP. Cela élimine la nécessité de construire des pipelines de données supplémentaires ou de formater les données de manière particulière. Pour protéger les informations sensibles, Pyramid évite d’envoyer des données brutes au LLM.
Dans un article de blog, le CTO de Pyramid, Avi Perez, explique que les requêtes des utilisateurs sont séparées des données sous-jacentes, garantissant que rien ne quitte l’environnement contrôlé du client. « La plateforme ne transmet que la requête en langage naturel et le contexte nécessaire au modèle linguistique pour générer la recette requise pour répondre à votre question », note-t-il.
Par exemple, si quelqu’un pose une question sur les ventes et les coûts dans différentes régions, Pyramid ne transmettra que la requête et des informations limitées au LLM, telles que les métadonnées, schémas et modèles sémantiques nécessaires au contexte. « Les données elles-mêmes ne sont pas envoyées », dit Perez. « Le LLM utilisera ses capacités d’interprétation pour nous renvoyer une réponse appropriée, que le moteur Pyramid utilisera ensuite pour rédiger, interroger, analyser et construire du contenu. »
D’autres plateformes BI génératives gèrent la connexion à la base de données différemment. Amazon Q dans QuickSight répond aux questions de sécurité en maintenant tout isolé dans les environnements AWS. De plus, Amazon promet de ne pas utiliser les prompts et requêtes des clients pour entraîner les modèles sous-jacents qui alimentent Amazon Q, afin de prévenir toute fuite de données.
Les plateformes BI génératives rendent l’intelligence d’affaires accessible et facile à naviguer. Parce qu’elles offrent des interfaces conversationnelles, les utilisateurs non techniques peuvent interagir avec elles en utilisant des prompts en langage naturel pour obtenir les réponses dont ils ont besoin. Ils peuvent aussi utiliser l’IA pour construire automatiquement des tableaux de bord et visualisations qui aident ceux qui doivent explorer davantage leurs données.
Les utilisateurs peuvent même générer des rapports entiers et des résumés contextuels, transformant des données statiques en histoires explicables, facilitant la compréhension des tendances et anomalies.
Insights exploitables avec l’IA agentique
Pour rendre l’intelligence d’affaires plus exploitable, certaines organisations ont choisi d’appliquer des pipelines RAG avec des technologies d’« IA agentique » fondamentales telles que Agent Skills et le Model Context Protocol (MCP). L’objectif est de transformer la BI d’un outil de reporting passif en un système autonome qui comprend des insights clés et peut même exécuter des tâches en fonction de ce qu’il découvre.
Agent Skills désigne une bibliothèque de capacités modulaires développée par Anthropic, permettant aux agents IA d’effectuer des actions spécifiques, comme créer des fichiers PDF, appeler une API particulière ou effectuer des calculs statistiques complexes. Ces compétences peuvent être activées par les agents selon les besoins, leur permettant d’effectuer des travaux au nom des humains.
Par ailleurs, MCP est une norme ouverte et universelle qui relie les LLM aux sources de données externes et aux outils logiciels. Elle permet aux agents IA d’accéder à des systèmes et outils en direct de manière sécurisée et structurée, sans avoir besoin de construire des connecteurs personnalisés.
Ces technologies ont des synergies qui correspondent à la portée de l’intelligence d’affaires, se combinant pour créer un nouveau type de workflow BI agentique. Si un utilisateur pose une question comme « Pourquoi les ventes sont-elles en baisse dans le Sud ? », l’agent utilisera MCP pour récupérer le contexte spécifique nécessaire pour répondre à cette question, comme le rôle de l’utilisateur, ses permissions d’accès, les rapports précédemment consultés et les données en direct du CRM de l’entreprise.
Ensuite, l’agent utilisera RAG pour récupérer des données pertinentes, telles que les plans marketing régionaux, les transcriptions de réunions, etc., afin d’identifier les raisons de la baisse des ventes. Après avoir trouvé la réponse, l’agent utilisera Agent Skills pour prendre des actions, comme générer un rapport résumé, notifier l’équipe commerciale responsable et mettre à jour la prévision budgétaire dans l’ERP.
Aruna Ravichandran, CMO de Cisco, est très optimiste quant à l’IA agentique et son potentiel à rendre « l’intelligence connectée » omniprésente dans le lieu de travail. « Dans cette nouvelle ère, la collaboration se fait sans friction », prévoit-il. « Les travailleurs numériques anticipent les besoins, coordonnent les tâches en arrière-plan et résolvent les problèmes avant qu’ils n’émergent. »
Malgré cet optimisme, RAG, MCP et Agent Skills en sont encore au stade expérimental, et beaucoup restent sceptiques quant à leur adoption à long terme. Il n’existe pas encore de cadre standard pour la construction de workflows BI agentiques, et pour l’instant, ils resteront probablement réservés aux grandes organisations disposant des ressources et des talents nécessaires pour de tels projets.
Tout le monde bénéficie d’une prise de décision améliorée par l’IA
L’accès aux données via LLM est, en un sens, un obstacle de dernière étape sur le chemin de la véritable intelligence décisionnelle, où des insights puissants peuvent être révélés par quiconque au moment où ils sont nécessaires. Une fois cette étape franchie, la prise de décision ne sera plus confinée aux équipes d’analystes ou au comité exécutif, mais intégrée dans le tissu même des opérations quotidiennes.
De plus en plus d’employés participent à la résolution stratégique de problèmes, ce qui a des implications profondes. Les organisations qui intègrent avec succès leurs propres données avec des analyses pilotées par l’IA transforment essentiellement l’information d’entreprise d’un actif silo en un langage d’action décisive que chaque employé peut comprendre.