Papa Matar Deme

DEME Papa Matar 

Équipe

Finance

Axe

Numérique

Sujet de thèse :

Adoption de l’IA explicable et création de valeur dans le marketing digital en B to B

Date de démarrage de la thèse :

Septembre 2025

Nom du (ou des) directeur(s) de thèse :

Sylvie MICHEL (université de Bordeaux) et Marc BIDAN (université de Nantes)

Résumé de la thèse :

Ces dernières années, l’IA connaît une montée en puissance fulgurante, due à d’importantes avancées technologiques, telles que celles de l’IA générative, pour n’évoquer que la plus récente et retentissante. Cette accélération du déploiement de l’IA met la question de l’adoption des technologies basée sur l’IA au-devant de la scène, prenant une importance toute particulière dans les entreprises. Adopter une solution d’IA n’est en effet pas neutre, notamment en termes éthiques. Les acteurs peuvent être confrontés à l’opacité des décisions ou recommandations algorithmiques. En effet, le fonctionnement interne des modèles d’IA est complexe et les processus algorithmiques manquent de transparence vis-à-vis de clients business qui peuvent s’en plaindre. Cette « boîte noire » peut en effet poser des problèmes de confiance et de transparence, induisant des difficultés de compréhension du comment et pourquoi telle ou telle recommandation et, plus encore, à s’assurer que ces dernières soient dépourvues de biais de représentativité comme les biais de genre ou de race, pouvant perpétuer ou amplifier les inégalités sociales. De plus, l’autonomie et la responsabilité de l’entreprise sont en jeu, car il peut être difficile de déterminer qui est responsable des actions ou décisions prises par des systèmes d’IA.

Dans ce cadre, l’IA explicable (XAI) peut jouer un rôle clé en favorisant la transparence et une meilleure compréhension des décisions ou recommandations algorithmiques, renforçant ainsi la confiance des clients à l’égard des systèmes d’IA. En tant qu’ensemble de processus et méthodes, l’XAI représente une avancée essentielle dans le domaine de l’IA en justifiant les décisions prises par les algorithmes et en augmentant la transparence, ce qui renforce la confiance et la fiabilité dans ces systèmes. Cela inclut la capacité à expliquer comment les algorithmes d’IA parviennent à leurs recommandations, à identifier les facteurs influents (les variables ou caractéristiques spécifiques des données qui ont un impact significatif sur les recommandations) et à fournir des justifications claires, compréhensibles et accessibles.

Logo UB