Doctorat DEXTER : Vers une explicabilité et transparence des modèles d’intelligence artificielle de détection d’anomalies dans les Trajectoires et les séries temporelles

Type de contrat
CDD 3 ans
Lieu de travail
ENAC Toulouse - 7, avenue Edouard Belin CS 54005 31055 Toulouse Cedex 4 France
Date de début souhaitée

Date limite d’envoi des candidatures (CV + lettres de motivation) au service demandeur : 3 Juillet 2022

Coordonnées de la personne chargée de la réception des candidatures :

    Nom : Hurter  Prénom : Christophe
    Fonction : Enseignant-Chercheur
    Adresse mail : christophe.hurter@enac.fr
    N° de téléphone :  05.62.25.96.27


Quelles tâches / missions à effectuer :

Doctorant 

Compétences nécessaires au poste : 

L’intelligence Artificielle (I.A.) nous montre aujourd’hui ses capacités à traiter, sous forme de classification, des données de plus en plus nombreuses et complexes. Cette démonstration de puissance ne permet pas de répondre à une classe de traitement de données où l’explication d’un traitement est plus importante que le traitement lui-même. Ceci est particulièrement vrai pour tous les systèmes critiques où la vie humaine est en jeu. Dans le domaine médical, l’explication de la détection d’un symptôme est plus importante que la détection d’une maladie. Dans le domaine du contrôle aérien, l’explication de l’ordre à donner à un avion est plus importante que l’ordre lui-même pour assurer que l’opérateur puisse garder une compréhension globale de la situation à contrôler. Cette thèse va proposer des solutions basées sur le traitement interactif de grandes quantités de données pour assurer la transparence et l’explication des résultats des traitements de données par les algorithmes d’I.A.
Les modèles neuronaux d’intelligence artificielle, pour des tâches de régression, de classification, de segmentation ou de détection d’anomalies, souffrent tous d’un manque de transparence et d’explication. Ces algorithmes sont aujourd’hui capables de produire en masse des résultats de traitement de données mais ne permettent pas de fournir une explication de leurs résultats compréhensible par l'utilisateur sans nécessiter des connaissances techniques liées au modèle. Ce manque d’explication et de transparence sont des freins pour l’acceptabilité, la confiance aux systèmes informatiques et surtout à la certification des systèmes industriels critiques. Les récentes contributions scientifiques en matière d’explicabilité tendent à favoriser des modèles à base d’arbres de décision qui expliquent a posteriori le comportement du modèle appris. Cette approche ne répond que partiellement au problème : les modèles deviennent certes explicables mais l’explication reste trop abstraite pour un expert métier, même familier de la structuration des modèles utilisant du machine learning ou de l’intelligence artificielle. L’objectif de cette thèse est d’aborder la problématique de l’explicabilité sous la forme d’une couche supplémentaire à un modèle neuronal de détection d’anomalies. L’explicabilité revient ici à transformer la sortie du modèle en explication des raisons de l’anomalie. Ce travail nécessite en amont d’adopter un design centré sur l’utilisateur, la compréhension de son activité et les critères opérationnels qui lui permettent d’établir un diagnostic ; puis de remplacer les dernières couches d’un réseau de neurones par un modèle de classification qui apporte une explication dans la nomenclature connue de l’expert. Cette approche pourra être appliquée à des problématiques classiques de gestion du trafic aérien (comportement d’avions atypiques/à risque en approche, profils de montée atypiques par rapport à la consommation de carburant) et de la gestion de la maintenance flottes aériennes.


Qualification ou formation (Niveau, Diplôme, Certificats, etc.) : M2
Des déplacements prévus : Monde
Date de recrutement : 01/09/2022
Salaire : Montant brut mensuel 2 150 €

Présentation de l'ENAC

GALERIE PHOTOS

Suivez-nous

Back to top