Nous sommes de plus en plus confrontés à des décisions prises par des algorithmes d'intelligence artificielle. Mais ces décisions prises par des machines sont souvent obscures et peuvent entraîner une certaine méfiance de l'utilisateur. Une piste envisagée pour augmenter la confiance est l'explicabilité des systèmes d’intelligence artificielle. Cette solution est apparemment séduisante, mais est-elle suffisante pour nous rassurer? Pas si simple...

Lire l'article d'Erwan Le Merrer & Gilles Trédansur Interstices