
Une nouvelle vague d’outils d’analyse vocale, prétendument pour l’amélioration, envahit les entreprises. Basée sur l’intelligence artificielle (IA), elle promet objectivité et performance. Cependant, cette avancée technologique transforme le travail en une véritable surveillance émotionnelle. La fameuse phrase « Votre appel peut être enregistré à des fins de formation » cache désormais une réalité bien plus complexe, où la collecte de données mène à l’analyse, puis à l’interprétation et enfin à une intention souvent coercitive.
Le speech analytics, capable de détecter le stress, la fatigue, le doute ou l’enthousiasme, ne se limite plus aux centres d’appels. Il s’infiltre dans les services internes, les interactions professionnelles et même les entretiens d’évaluation. Ces outils attribuent des scores et déclenchent des alertes, pouvant potentiellement influencer les promotions ou les sanctions à l’avenir. La voix, qui est bien plus qu’un simple signal – elle vibre, hésite, tremble et reflète nos émotions –, est ainsi réduite à une simple donnée biométrique. Standardiser la voix, c’est ignorer la richesse d’une intonation, qui raconte souvent une histoire, et la juger « inappropriée » ou son rythme « trop lent » peut mener à des alertes ou des risques de désengagement.
Les autorités françaises et européennes ont reconnu la sensibilité des données vocales, qui permettent non seulement d’identifier une personne mais aussi d’inférer son état émotionnel ou psychologique. Leur traitement est strictement encadré par le Règlement Général sur la Protection des Données (RGPD), bientôt renforcé par l’IA Act, exigeant un consentement libre et éclairé. Toutefois, en entreprise, la validité d’un tel consentement est discutable face à un outil imposé par la hiérarchie, soulevant des questions sur la possibilité de refuser, de comprendre les algorithmes ou de contester leurs conclusions. Le consentement doit être un droit fondamental, et non une simple case à cocher.
De nombreuses études alertent sur les risques associés à cette surveillance permanente : stress accru des salariés, autocensure, diminution des échanges spontanés, rupture de confiance et déshumanisation du travail. À cela s’ajoutent des biais matériels ou algorithmiques, tels que la compression numérique ou le filtrage des fréquences, qui peuvent altérer le timbre vocal et désavantager certains accents, voix féminines ou styles culturels.