Skip to Main content Skip to Navigation
Conference papers

Interprétabilité des modèles prédictifs

Gilbert Saporta 1
1 CEDRIC - MSDMA - CEDRIC. Méthodes statistiques de data-mining et apprentissage
CEDRIC - Centre d'études et de recherche en informatique et communications
Résumé : Les succès du Machine Learning dans les problèmes de régression ou de classification supervisée ont conduit de nombreux auteurs à théoriser l’opposition entre comprendre et prédire, tant sur le plan conceptuel que pratique. Leo Breiman (2001) opposait ainsi ces deux cultures. Vladimir Vapnik (2006) renchérissait en montrant que « Better models are sometimes obtained by deliberately avoiding to reproduce the true mechanisms » . Ce fut le triomphe des boîtes noires: peu importait que le modèle, ou plutôt l’algorithme, soit compréhensible du moment qu’il prédisait bien. La disponibilité de gigantesques bases de données, (Big Data), conduisit un peu vite Chris Anderson (2008) à prédire la fin de la démarche scientifique. L’application à des décisions concernant la vie des individus finit par susciter des polémiques (Cathy O’Neil, 2016). Des codes d’éthique et des règlements, tel le RGPD européen (règlement général sur la protection des données, 2016) consacrèrent le droit à l’explication. Dans cet exposé, on reviendra tout d’abord sur le dilemme entre prédire et comprendre. On distinguera ensuite les modèles explicables des modèles interprétables. Ces derniers incluent les modèles causaux , ce qui permettra de faire le lien avec l'ASI. L’explicabilité des algorithmes (X-AI explainable artificial intelligence) est un domaine de recherche actif avec des approches globales ou locales, agnostiques ou spécifiques, pour mesurer l'importance des variables, utilisant souvent des modèles de substitution (Christoph Molnar, 2021). Au-delà de la transparence nécessaire, le traitement équitable (fairness) ou non-discriminant par des algorithmes prédictifs, est devenu une exigence éthique qui donne lieu à une abondante littérature non exempte de paradoxes sur les mesures d’équité (Mitchell et al., 2021). Ce que l’on nomme biais des algorithmes n’est la plupart du temps que la conséquence des biais des données exploitées. On se demandera en conclusion s’il faut ou non renoncer aux boîtes noires.
Document type :
Conference papers
Complete list of metadata

https://hal-cnam.archives-ouvertes.fr/hal-03425974
Contributor : Gilbert Saporta Connect in order to contact the contributor
Submitted on : Thursday, November 11, 2021 - 6:44:30 PM
Last modification on : Monday, November 15, 2021 - 10:21:40 AM

Identifiers

  • HAL Id : hal-03425974, version 1

Collections

Citation

Gilbert Saporta. Interprétabilité des modèles prédictifs. ASI 11. 11ème Colloque International sur l'Analyse Statistique Implicative, Nov 2021, Belfort, France. ⟨hal-03425974⟩

Share

Metrics

Record views

29