janvier 26, 2023
L'approximation des données est couramment utilisée pour rendre certaines données compréhensibles et lisibles. Mais dans le domaine du marketing, cette approximation n'est plus souhaitable.
Sans que l’on s’en rende compte l’approximation est partout, dans tous les domaines y compris les plus sérieux. On comprend bien l’intention, celle de rendre compréhensible au plus grand nombre des données complexes. Par exemple, pour évoquer le PIB de la France en 2021, les spécialistes choisissent de ramener le chiffre réel à 6,8%, quand en réalité il est évidemment bien plus complexe que cela. Entre vulgarisation et approximation, nous sommes tous tentés d’utiliser le « environ ». Si dans certains contextes et certains usages, une simplification des données se justifie pleinement, elle peut en revanche se révéler problématique dans son emploi marketing. D’autant plus que la technologie permettant de générer de la data s’est considérablement développée et exploite des volumes de plus en plus colossaux. Pourtant le résultat final comporte souvent des approximations. Cela s’explique par la qualité de la source de la donnée parfois même établie par des échantillonnages, la collecte et le transfert, mais également le traitement même de cette donnée. Ce qui est nouveau ce sont les traitements plus complexes de la data, la multiplication des sources dont elles proviennent, soumis à des algorithmes plus sophistiqués ou des architectures de données devenant de plus en plus labyrinthiques.
Il est donc légitime de se poser la question de cette approximation dans le cadre de l’activation automatique dans le digital. Et de son impact. 70% des spécialistes de la donnée ne peuvent pas faire confiance à la data finale car celle-ci n’est pas fiable, selon une étude européenne commandée par Xerox et réalisée par Forrester Consulting. A l’heure où les premiers algorithmes segmentent et activent la relation avec les prospects et les clients, cette approximation a des impacts rarement mesurables mais bien réels.
Lorsqu’il s’agit de s’adresser aux prospects, les conséquences d’un usage approximatif de la data peuvent se révéler minimes notamment dans le cas de propositions ou d’annonces publicitaires qui ne nécessitent pas un fort engagement. Il est alors tout à fait possible d’atteindre une partie de ses objectifs avec des données approximatives. Mais l’on perd en efficacité. En revanche, lorsqu’il s’agit de s’adresser à des consommateurs déjà clients, les conséquences peuvent être bien plus lourdes. Le contrat de lecture avec le client d’une marque ou d’un service doit être manié avec une rigueur que seules les données les plus précises peuvent fournir.
Lorsqu’il s’agit de s’adresser aux prospects, les conséquences d’un usage approximatif de la data peuvent se révéler minimes notamment dans le cas de propositions ou d’annonces publicitaires qui ne nécessitent pas un fort engagement. Il est alors tout à fait possible d’atteindre une partie de ses objectifs avec des données approximatives. Mais l’on perd en efficacité. En revanche, lorsqu’il s’agit de s’adresser à des consommateurs déjà clients, les conséquences peuvent être bien plus lourdes. Le contrat de lecture avec le client d’une marque ou d’un service doit être manié avec une rigueur que seules les données les plus précises peuvent fournir.
Pourtant, en dehors des professionnels de la qualité de la data, ce sujet, en France, semble peu préoccuper les esprits. Il suffit pour s’en convaincre de regarder les programmes des webinars, des événements data, des séminaires, … les intervenants qui évoquent le sujet de la qualité des données de bout en bout sont rares. Tout semble indiquer implicitement que les données utilisées sont fiables et de qualité. C’est pourtant loin d’être le cas. Les thématiques évoquées pendant ces événements concernent exclusivement la collecte de la donnée, les aspects liés au RGPD, les données redressées, mais le reste du parcours de la data reste encore un sujet auquel les équipes dédiées chez l’annonceur ne consacrent pas encore suffisamment d’importance.
Si en France la qualité de la donnée ne semble pas être la priorité de tous, en Europe, comme en Suisse par exemple, il en est autrement. Certaines sociétés helvétiques sont passées maitres dans la gestion de la qualité de « bout en bout » et se sont dotées d’équipes dédiées, d’outils, de process pour garantir un résultat plus que probant. Trop souvent en France, cet aspect de la data est traité, quand il l’est, de manière trop artisanale et n’est géré que quand le temps des équipes le permet.
Il existe pourtant des algorithmes qui permettent de monitorer la qualité de la donnée, et des éditeurs spécialisés peuvent apporter des solutions adaptées. Il existe aussi des équipes d’experts sur cette question. Cela demande bien sûr d’y mettre les moyens, financiers et humains. Les grandes entreprises et les grands groupes brassent des volumes tellement importants de datas que seuls des algorithmes peuvent faire tri les bonnes et les mauvaises données. Ce travail, titanesque, ne peut être uniquement réalisé par les datas scientists. Il est donc clé pour ces entreprises de se saisir au plus vite de ce sujet et de mettre un terme à l’approximation.