Changes of representation for counter-factual inference - A&O (Apprentissage et Optimisation)
Theses Year : 2024

Changes of representation for counter-factual inference

Changement de représentation pour l'inférence contrefactuelle

Abstract

Causal learning aspires to embrace the ethical concerns raised by the deployment of predictive models in decision-making settings, as well as the growing expectations about data-driven policy-making and personalized guidance. Drawing robust insights from observational data, it answers counter-factual questions: what would have happened if? The performance increase of neural-network-based approaches has long been fuelled by the refinement of the balance between the learned representations of the control and treated population. However, the awareness of the flaws of such an approach increases: balance in the latent space is not the most relevant property. Breaking free from the said paradigm, we introduce asymmetrical constraints in the representational space, trading accuracy in the factual modeling of a given population for accuracy in the counter-factual modeling of the other one. Combining a model that benefits the control distribution with one favoring the treated one, we get the best of both worlds. Alrite instantiates this new architecture. Its relevance is grounded in theory by a thorough theoretical analysis, and in practice through extensive experimental validation. Special attention is given to the selection of hyper-parameters, a subtle problem in the causal inference setting. The relevance of the approach is finally confirmed by comparison with the state-of-the-art baselines.
Quelques éloignées puissent-elles paraître, les notions de prise de décision algorithmique, d’évaluation des politiques publiques ou de personnalisation des soins médicaux reposent sur une même question fondamentale : que se serait-il passé, que se passerait-il si la décision était autre ? Parce que l'apprentissage causal fonde par essence des raisonnements contrefactuels sur les données disponibles, il constitue le cadre théorique et pratique idoine de ces problématiques. Depuis l'introduction d’approches fondées sue des réseaux de neurones, les progrès en inférence causale ont été portés principalement par le raffinement de l'équilibrage entre les représentations apprises des individus contrôle, et traités. Prenant constat des limites de cette approche, nous opérons un changement de paradigme. Des contraintes asymétriques dans l'espace des représentation permettent, au prix de la dégradation de la modélisation factuelle d'une population, l'amélioration de la modélisation contrefactuelle de l'autre. La combinaison d'un modèle favorable à la population traitée avec son pendant relatif à la population contrôle cumule leurs avantages, sans leurs inconvénients. Cette nouvelle architecture est incarnée par Alrite, un modèle dont nous démontrons la pertinence sur un plan théorique, avant de le soumettre à des expériences pratiques. Un soin tout particulier est porté à la sélection rigoureuse de ses hyper-paramètres, tâche réputée délicate dans le domaine de l'inférence causale. Une comparaison favorable avec les modèles concurrents de l'état de l'art confirme finalement le bien-fondé de l'approche.
Fichier principal
Vignette du fichier
119963_LACOMBE_2024_archivage.pdf (3.86 Mo) Télécharger le fichier
Origin Version validated by the jury (STAR)

Dates and versions

tel-04759706 , version 1 (30-10-2024)

Identifiers

  • HAL Id : tel-04759706 , version 1

Cite

Armand Lacombe. Changes of representation for counter-factual inference. Artificial Intelligence [cs.AI]. Université Paris-Saclay, 2024. English. ⟨NNT : 2024UPASG009⟩. ⟨tel-04759706⟩
0 View
0 Download

Share

More