S
ous prétexte d’amélioration, une vague d’outils d’analyse vocale déferle dans les entreprises. L’intelligence artificielle (IA) promet plus d’objectivité et de performance. En réalité, c’est un travail placé sous surveillance émotionnelle. « Votre appel peut être enregistré à des fins de formation » : cette phrase familière camoufle désormais bien plus qu’un simple enregistrement. Derrière la collecte, il y a l’analyse ; derrière l’analyse, une interprétation ; et derrière l’interprétation, une intention.
Le speech analytics, qui détecte stress, fatigue, doute ou enthousiasme, sort des centres d’appels pour pénétrer nos services internes, nos interactions professionnelles, nos entretiens d’évaluation… Les outils attribuent des scores, déclenchent des alertes. Demain, ils pourraient recommander promotions ou sanctions.
La voix devient une simple donnée biométrique. Pourtant, elle n’est pas qu’un signal. Elle vibre, hésite, tremble, reflète nos journées, nos doutes, nos émotions. La standardiser, c’est nier qu’une intonation est souvent une histoire. Jugée « inappropriée » ? Alerte. Rythme jugé trop lent ? Risque de désengagement. Ton jugé trop vif ? Possible tension.
Les autorités françaises et européennes l’ont compris : la voix est une donnée hautement sensible, permettant d’identifier une personne, mais aussi d’inférer son état émotionnel ou psychologique. Son traitement est interdit, sauf consentement libre et éclairé, ainsi que le prévoit le règlement général sur la protection des données (RGPD) – bientôt renforcé par l’IA Act. Mais en entreprise, que vaut ce consentement « libre » ? Peut-on refuser un outil imposé par la hiérarchie, comprendre ce que l’algorithme « a entendu » ou même contester ses conclusions ? Le consentement n’est pas une simple case à cocher, mais un droit fondamental.






