Avancée majeure de ULiège et NRB sur la traçabilité des réponses générées par les LLM

Les chercheurs de l’ULiège et de NRB dévoilent TreeFinder. Une méthode innovante pour rendre les Large Language Models traçables, vérifiables et auditables. Une avancée majeure pour une IA plus transparente et responsable

Rendre LLM traçables, vérifiables et auditables. Telle est la vocation de l’algorithme TreeFinder. Une avancée majeure pour une IA plus transparente et responsable. Un an à peine après sa création, la Chaire de recherche NRB – ULiège sur l’IA livre déjà des résultats prometteurs.

Signée en juillet 2024, la Chaire IA NRB – ULiège est née d’une ambition commune : accélérer l’adoption d’une IA éthique et performante au service des entreprises, du secteur public et de la société. Son centre d’intérêt, la recherche et le développement de LLM appliqués au génie logiciel. Objectif : transformer les avancées scientifiques en solutions concrètes.  Et donc optimiser les processus métiers, renforcer la compétitivité des entreprises et encourager l’innovation.

Pour le professeur Damien Ernst, co-titulaire de la Chaire NRB – ULiège, cette chaire est incontestablement un exemple de partenariat entre l’industrie et le monde universitaire. « La Chaire alimente la recherche fondamentale et permet à NRB de conquérir de nouveaux marchés. »

TreeFinder, la promesse de LLM plus fiables

Premier fruit de cette collaboration, TreeFinder. L’algorithme répond à une préoccupation majeure : la traçabilité des réponses générées par les LLM.

Jusqu’ici, les LLM ont fonctionné comme des « boîtes noires ». Ils rendent difficile la compréhension de la manière dont ils produisent leurs réponses. Ce qui est critique dans les secteurs sensibles tels que la santé, le droit ou la finance. De fait, les LLM passent à côté de phrases clés dans de longs contextes. Ils se laissent distraire par du bruit et rendent des réponses difficiles à vérifier.

TreeFinder change la donne. Cette méthode simple et indépendante (agnostique aux modèles) identifie, dans un long document, les phrases précises qui ont réellement influencé la réponse du modèle. Résultat : des systèmes de question-réponse plus fiables, auditables et certifiables. Et, surtout, capables d’expliquer pourquoi ils répondent ce qu’ils répondent.

Une méthode qui rapproche la recherche théorique des besoins concrets des entreprises

TreeFinder offre une méthode simple pour trouver les phrases utilisées par un modèle linéaire mixte pour répondre à une question. L’algorithme combine les métriques de probabilité de suppression de nécessité et de suffisance avec une recherche par élagage de l’arbre. Il s’agit là d’une avancée concrète vers une FAQ explicable. Ces recherches sont particulièrement précieuses pour les applications nécessitant de longs documents, où la fiabilité de la réponse est cruciale.

« Les LLM offrent des performances impressionnantes, mais il reste des défis importants à relever pour les rendre auditables et dignes de confiance, observe Lize Pirenne, chercheuse à l’ULiège et co-autrice de TreeFinder. Grâce à notre collaboration avec NRB, nous avons pu développer une méthode qui rapproche la recherche théorique des besoins concrets des entreprises. »

Des usages concrets dans différents domaines

L’algorithme TreeFinder repose sur deux principes clés. Un, la suffisance : avec seulement les phrases identifiées, le modèle conserve presque la même probabilité de produire la même réponse. Deux, la nécessité : si ces phrases sont retirées du contexte, la probabilité chute nettement.

En combinant ces signaux, TreeFinder isole les phrases qui « comptent vraiment » dans la génération d’une réponse, tout en éliminant le bruit.

Cette approche hiérarchique, rapide et précise, permet d’auditer instantanément les réponses des IA, vérifier la cohérence et détecter les biais et renforcer la conformité et la certification des systèmes d’IA.

Concrètement, dans le domaine médical, TreeFinder peut justifier une synthèse clinique par les phrases exactes issues d’un dossier patient. Dans le secteur juridique, il peut relier une réponse à des passages précis d’un contrat ou d’un arrêt. Et pour les entreprises, il permet de sécuriser les moteurs d’IA internes en expliquant quelles sources ont influencé la réponse donnée.

Un partenariat gagnant-gagnant

Travailler avec NRB a été une véritable source d’inspiration, analyse Lize Pirenne. « Nous avons pu identifier des problèmes concrets rencontrés dans le déploiement de l’IA et y apporter des réponses issues de la recherche fondamentale. Une véritable synergie s’est créée entre les chercheurs et les ingénieurs pour transformer ces défis en innovations. »

Laurence Mathieu, CEO, NRB, voit dans cette dynamique la valeur des collaborations croisées entre universités et entreprises : un modèle win-win, où la recherche bénéficie de cas d’usage réels et où l’industrie s’appuie sur une expertise scientifique rigoureuse pour bâtir des solutions de confiance.

« Les grands défis technologiques, économiques, éducatifs ou éthiques ne peuvent être relevés qu’en unissant nos forces. C’est tout le sens de cette chaire, qui démontre la puissance des écosystèmes ouverts et des collaborations durables entre la recherche et l’entreprise. »