Présentation : L’opacité de certains algorithmes de Machine Learning représente un enjeu fondamental pour la société mais aussi pour le développement futur de l’intelligence artificielle. En effet, les algorithmes actuels de Machine Learning traitent des données de plus en plus volumineuses ce qui rend difficile la possibilité d’interpréter leur fonctionnement interne. Or la capacité de rendre de compte des décisions algorithmiques est une composante fondamentale pour pouvoir construire une responsabilité partagée en IA. De nombreuses initiatives de recherche, appelées souvent XAI, cherchent à expliquer et interpréter les décisions algorithmiques par des méthodes quantitatives. Ce séminaire de recherche s’intéresse de manière transdisciplinaire à ces méthodes d’interprétation de l’IA et à la difficulté de les mettre en place. 

Interventions :

    • Explainable artificial intelligence: beware the inmates running the asylum,Timothy Miller, Professor in the School of Computing and Information Systems at The University of Melbourne, and Co-Director for the Centre of AI and Digital Ethics
    • Between Algorithmic Fairness and Algorithmic Explainability, Doaa Abu Elyounes, Harvard Law of School / Sciences Po Law of School)
    • EXplainable Artificial Intelligence systems for Health, Nesma Houmani, Professor at Telecom Sud Paris

INSCRIPTION

Lieu

Webinaire : Interprétabilité en Intelligence artificielle