Le centre de contact Accor était saturé. 40% des appels entrants étaient des questions répétitives : "À quelle heure le check-in ?" "Comment utiliser mes points de fidélité ?" "Confirmation de ma réservation." Ces appels bloquaient les agents pour les vrais problèmes. Accor voulait déployer un callbot vocal pour traiter le tier-1. Trois tentatives précédentes avaient échoué. Les clients restaient coincés dans des boucles, ne pouvaient pas escalader, et abandonnaient frustrés.
Les callbots précédents étaient des exercices technologiques. On avait priorisé la NLU (la compréhension). L'UX était oubliée. Les gens criaient des requêtes dans le vide, recevaient des réponses hors contexte, et n'avaient aucun bouton pour escalader. C'était une expérience frustrante. Le callbot était un obstacle, pas une solution. Le gap : on avait construit la technologie avant de concevoir la conversation.
Cartographie des 20 intents les plus fréquents par volume d'appels. Pour chaque intent : design du flux conversationnel. Pas de "comment êtes-vous ?" Directement : "Je peux vous aider avec la confirmation de votre réservation. Quel est votre numéro ?" Escalade toujours visible : "Je ne peux pas répondre ? Je vous mets avec un agent." Tests A/B : callbot vs agent humain sur 500 appels réels. On mesurait : resolution rate, escalation clarity, satisfaction. Itérations sur les flows jusqu'à parité avec les agents.
CallBOT ALL déployé. Réduction significative des appels tier-1. Le satisfaction score s'est maintenu. Les escalades vers agents ont été fluides et transparentes. Les clients ne sentaient pas une "machine" qui les retenait — c'était du service clarifié. Accor a pu redéployer ses agents sur les appels complexes. Zéro mécontentement sur la technologie elle-même — c'était devenu invisible.
J'ai écouté 50 enregistrements des tentatives précédentes. Patterns : (1) le bot demandait des infos hors contexte, (2) l'utilisateur répétait sa requête 3-4 fois, (3) zéro indication d'escalade. Les gens ont cru qu'ils devaient crier plus fort. L'UX était conçue comme une machine, pas comme un service. On avait oublié que les gens appellent pour résoudre un problème, pas pour parler à un robot.
Données de l'IVR précédent + 100 enregistrements d'appels. J'ai transcrit, identifié le sujet réel de chaque appel. Les 20 intents top couvraient 85% du volume. Les 100 autres intents étaient des variations. Optimiser pour les 20, c'était résoudre 85% du problème de surcharge. Le reste escalade vers les agents.
Oui. Pendant 2 semaines, les appels étaient routés aléatoirement : agent ou callbot. Même script, mêmes données disponibles. On mesurait : durée de l'appel, escalade rate, satisfaction client. Quand le callbot et l'agent avaient les mêmes metrics, on savait que l'UX conversationnelle était bonne. Si le callbot faisait moins bien, on itérait les flows.
Cadrage 45 min pour analyser vos intents et dessiner une stratégie de conversation.
Réserver un appel →