Alors que les experts font allusion aux limites techniques imminentes des larges modèles de langage (LLM), l’attention se tourne vers la génération augmentée par récupération (RAG, Retrieval-Augmented Generation), une avancée prometteuse qui pourrait redéfinir l’intelligence artificielle (IA) en fusionnant la récupération d’informations avec la génération de langage naturel.
Les LLMs ont dirigé la technologie de l’IA et amélioré diverses applications. Cependant, leur tendance à générer de fausses informations a limité leur potentiel. RAG permet à l’IA d’accéder à des données externes spécifiques et de les intégrer dans ses réponses, les rendant ainsi plus efficaces et plus précises. “Le principal avantage des RAG par rapport aux LLMs réside dans le fait que les premiers sont entièrement basés sur un ensemble de données exclusives que le propriétaire du dit RAG peut contrôler, ce qui permet des applications plus ciblées”, a déclaré Renat Abyasov, PDG de la société d’IA Wonderslide, à PYMNTS. ‘ Disons qu’un médecin souhaite déployer un chatbot pour ses patients ; utiliser un RAG leur permettra de s’assurer que les conseils délivrés par le dit chatbot seront fiables et cohérents.’
Cette fiabilité est beaucoup plus difficile à atteindre avec les LLMs, des systèmes formés sur des quantités massives de données accessibles au public et parfois plutôt douteuses. Les modèles RAG sont une IA de pointe qui combine la compréhension du langage et la récupération d’informations en temps réel. Cela leur permet de fournir des réponses plus précises et à jour en accédant aux dernières données pertinentes provenant de sources externes.
Conclusion
Les modèles RAG excellent dans des domaines dynamiques tels que l’actualité, la recherche et le support client, où leur capacité à incorporer de nouvelles informations les rend hautement adaptables et précieux dans les situations qui nécessitent de rester à jour.