ChatGPT se met à parler: le mode vocal avancé arrive
Après une attente de plusieurs mois, OpenAI lance enfin le mode vocal avancé pour ChatGPT.
Un lancement retardé, mais enrichi
Annoncé en mai dernier avec GPT-4o, ce mode vise à rendre les conversations avec l'IA plus naturelles et fluides. Pour compenser le retard, OpenAI a ajouté plusieurs améliorations, dont cinq nouvelles voix (Arbor, Maple, Sol, Spruce et Vale), une mémoire de conversation et la prise en charge des instructions personnalisées.
Des fonctionnalités innovantes pour une conversation plus naturelle
Le mode vocal avancé utilise les capacités audio de GPT-4o pour détecter les nuances de la parole, comme le débit, et y répondre avec émotion. Il permet également d’utiliser les instructions personnalisées, qui permettent de modeler le comportement de l'IA, et bénéficie d’une mémoire, lui permettant de se souvenir des informations précédentes dans la conversation.
Disponibilité et restrictions
Le déploiement du mode vocal avancé a commencé pour les abonnés ChatGPT Plus et Team via l’application mobile (iOS/Android version 1.2024.261 ou ultérieure). Cependant, il n'est pas encore disponible dans l'UE, au Royaume-Uni et dans plusieurs autres pays européens. OpenAI travaille sur son déploiement dans ces régions.
Un potentiel incomplètement exploité ?
Malgré les améliorations, le mode vocal avancé ne semble pas intégrer toutes les fonctionnalités présentées initialement. On note notamment l'absence de la capacité de ChatGPT à voir et à commenter des images pendant une conversation, une fonctionnalité démontrée par OpenAI en mai dernier. Espérons que cette fonctionnalité, et d'autres, seront ajoutées dans de futures mises à jour.