Interprétabilité des modèles prédictifs - Cnam - Conservatoire national des arts et métiers Accéder directement au contenu
Communication Dans Un Congrès Année : 2021

Interprétabilité des modèles prédictifs

Résumé

Les succès du Machine Learning dans les problèmes de régression ou de classification supervisée ont conduit de nombreux auteurs à théoriser l’opposition entre comprendre et prédire, tant sur le plan conceptuel que pratique. Leo Breiman (2001) opposait ainsi ces deux cultures. Vladimir Vapnik (2006) renchérissait en montrant que « Better models are sometimes obtained by deliberately avoiding to reproduce the true mechanisms » . Ce fut le triomphe des boîtes noires: peu importait que le modèle, ou plutôt l’algorithme, soit compréhensible du moment qu’il prédisait bien. La disponibilité de gigantesques bases de données, (Big Data), conduisit un peu vite Chris Anderson (2008) à prédire la fin de la démarche scientifique. L’application à des décisions concernant la vie des individus finit par susciter des polémiques (Cathy O’Neil, 2016). Des codes d’éthique et des règlements, tel le RGPD européen (règlement général sur la protection des données, 2016) consacrèrent le droit à l’explication. Dans cet exposé, on reviendra tout d’abord sur le dilemme entre prédire et comprendre. On distinguera ensuite les modèles explicables des modèles interprétables. Ces derniers incluent les modèles causaux , ce qui permettra de faire le lien avec l'ASI. L’explicabilité des algorithmes (X-AI explainable artificial intelligence) est un domaine de recherche actif avec des approches globales ou locales, agnostiques ou spécifiques, pour mesurer l'importance des variables, utilisant souvent des modèles de substitution (Christoph Molnar, 2021). Au-delà de la transparence nécessaire, le traitement équitable (fairness) ou non-discriminant par des algorithmes prédictifs, est devenu une exigence éthique qui donne lieu à une abondante littérature non exempte de paradoxes sur les mesures d’équité (Mitchell et al., 2021). Ce que l’on nomme biais des algorithmes n’est la plupart du temps que la conséquence des biais des données exploitées. On se demandera en conclusion s’il faut ou non renoncer aux boîtes noires.
Fichier non déposé

Dates et versions

hal-03425974 , version 1 (11-11-2021)

Identifiants

  • HAL Id : hal-03425974 , version 1

Citer

Gilbert Saporta. Interprétabilité des modèles prédictifs. ASI 11. 11ème Colloque International sur l'Analyse Statistique Implicative, Nov 2021, Belfort, France. ⟨hal-03425974⟩
129 Consultations
0 Téléchargements

Partager

Gmail Facebook X LinkedIn More