Transformers pour l’Identification de Thèmes et de Mentions dans des Conversations Téléphoniques Bruités

Nicolas André
Adrien Racamond
Mohamed Morchid
DOI
10.24348/coria.2024.long_12
Résumé

Les systèmes basés sur les réseaux de neurones avec système d’attention, tels que les ``transformers’’, ont atteint des performances prometteuses dans différentes tâches liées au traitement automatique du langage naturel dans des environements réels, tel que la compréhension du langage parlé (SLU). Ces modèles neuronaux basés sur les transformers comme BERT, sont très expressifs et efficaces pour la compréhension du langage parlé. Néanmoins, la tâche de détection de thèmes abordés dans des dialogues enregistrés dans des conditions difficiles (téléphone, dialogues enregistrés dans la rue, etc.) s’avère compliquée, car les sujets sont étroitement liés et l’ensemble de dialogues parlés employés pour la phase d’apprentissage est réduit. Cet article propose d’utiliser des modèles de langage basés sur les transformers dans le cadre de la compréhension de dialogues du centre d’appels RATP des données DECODA pour la détection de sujets dans des dialogues parlés bruités. L’article évalue également les performances des transformers pour l’extion de sous-thèmes (mentions) portant sur chaque sujet. Les expériences menées montrent que l’utilisation des dépendances entre les mentions et leurs sujets associés améliore à la fois l’identification des thèmes et des mentions. De plus, les expériences soulignent que l’apprentissage des thèmes et des mentions ou sous-thèmes en parallèle permet au système SLU de révéler des dépendances cachées pour un meilleur traitement des appels téléphoniques émanant des clients de la RATP.