AAAI-22 : un prix pour l’évaluation des systèmes de recommandation

Distinctions Informatique

Les algorithmes de recommandation tentent de personnaliser au mieux les contenus qui nous sont proposés par les différentes plateformes numériques, mais leur système d’apprentissage les rend vulnérables à l’acquisition involontaire de biais pouvant nuire à l’utilisateur. Des chercheurs du laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision (LAMSADE - CNRS/Université Paris Dauphine - PSL) et de Meta AI (Facebook) ont obtenu l’Outstanding Paper Award de la conférence AAAI-22 pour leur article sur une méthodologie qui permet d’évaluer  une certaine notion d’équité des systèmes de recommandation, et ce sans dégrader l’expérience pour l’utilisateur.

Quand un site fait mouche en vous proposant une chanson, un contact ou un produit, il a très probablement utilisé un algorithme de recommandation. Ces outils d’intelligence artificielle sont particulièrement courants sur les réseaux sociaux, où leurs réponses sont parfois involontairement biaisées au point que ce problème soit devenu un champ d’étude à part entière. Une équipe du LAMSADE et de chez Meta AI (Facebook) a ainsi publié un article sur le sujet qui a obtenu l’Outstanding Paper Award de la conférence 2022 de l’Association for the advancement of artificial intelligence (AAAI), l’un des principaux rendez-vous de la recherche mondiale en intelligence artificielle depuis 40 ans.

« Dans ce papier, nous avons développé un algorithme qui certifie qu’un système de recommandation traite équitablement les utilisateurs, tout en garantissant que cette vérification ne dégrade pas leur expérience, » précise Virginie Do, auteure principale de l’article et doctorante CIFRE au LAMSADE, à l’Université Paris Dauphine - PSL et chez Meta AI. Les systèmes de recommandation basés sur l’apprentissage automatique peuvent en effet acquérir et perpétuer involontairement des biais lorsqu’ils s’entraînent sur leurs tâches à partir de jeux de données. Des offres d’emplois et des annonces immobilières ne sont ainsi parfois pas présentées de façon impartiale en fonction de l’origine, du genre ou de la classe sociale des internautes, et ce alors que personne n’a délibérément entré ces biais. Ce problème fait appel à des compétences allant de l’informatique aux sciences humaines.

Les questions d’équité sont déjà étudiées en économie et beaucoup de ces notions sont utiles à l’étude des systèmes de recommandation.

« J’ai suivi des études scientifiques en mathématiques appliquées en prépa, puis à Polytechnique, détaille Virginie Do. J’ai suivi en parallèle une licence en philosophie, puis j’ai obtenu un master en statistiques et en sciences sociales à Oxford. J’ai toujours eu envie d’explorer les interactions entre les mathématiques, l’informatique et les questions sociales, et mon année de master m’a donné l’envie de faire une thèse sur les biais et les problèmes de discrimination dans les algorithmes d’intelligence artificielle. »

Dans leurs travaux primés à l’AAAI, qui a reçu cette année environ 9000 articles scientifiques, les chercheurs se sont intéressés au concept d’envy-freeness, l’absence d’envie. L’idée est qu’un utilisateur qui reçoit des recommandations personnalisées ne doit jamais préférer les recommandations faites pour quelqu’un d’autre.

Je suis ravie des résultats obtenus et cette récompense leur donne davantage de visibilité.

La vérification s’effectue en proposant certaines suggestions conçues pour d’autres personnes : si l’utilisateur ne clique pas dessus, l’absence d’envie est vérifiée. Cependant, si on soumet exprès l’internaute à trop de choix qui ne lui conviennent pas, le test gagne en certitude, mais dégrade l’expérience. Toute la difficulté de ces travaux consiste à trouver le juste milieu.

Pour y parvenir, Virginie Do et ses coauteurs utilisent un outil statistique et informatique appelé le multi-armed bandit problem, littéralement le « problème du bandit manchot à plusieurs bras ». Cela correspond à prédire le comportement d’une machine à sous fonctionnant avec plusieurs leviers à la fois. « Ce problème est très employé en intelligence artificielle et en machine learning, explique Virginie Do. Dans cette classe d’algorithmes, l’agent doit choisir entre plusieurs options lui apportant un gain plus ou moins élevé, mais sans savoir à l’avance laquelle est la meilleure. Ces options correspondent ici aux stratégies des différents utilisateurs. » En l’appliquant au cas spécifique de l’absence d’envie, les chercheurs ont ainsi pu concevoir un test d'absence d'envie efficace et qui ne détériore pas les recommandations.

Contact

Virginie Do
Doctorante au LAMSADE
Jamal Atif
Professeur à l'Université Paris Dauphine - PSL et membre du LAMSADE et directeur de programme du PEPR Intelligence artificielle pour le CNRS