Smart is the new Big : le contenu au secours de la data
L’essentiel des discussions du dernier Dmexco (la grande messe annuelle du marketing digital) tournait autour du Big Data, et plus particulièrement des attentes suscitées par l’arrivée de l’Intelligence Artificielle dans le traitement des données. Mais si on continue à engranger des informations inutiles sur nos clients, l’AI ne nous sera d’aucun secours.
Le Big Data aujourd’hui, ou comment les données nous font perdre notre temps
5 exabytes de données séparaient la préhistoire de l’année 2003. C’est dorénavant le volume de data produit quotidiennement par l’humanité. Le constat d’Eric Schmidt, président exécutif du conseil d’administration de Google éveille déjà chez les statisticiens des frissons d’enthousiasme. Chez les autres, l’énoncé a un goût d’amertume.
Car nous sommes devenus très doués pour engranger de l’information sur nos clients. Mais nous avons beaucoup de mal à en faire quelque chose de constructif. Seules 28% des entreprises françaises savent pleinement exploiter les données qu’elles recueillent grâce à leurs activités marketing. Et ce petit tiers d’entreprises sur-performantes n’utilise en moyenne que 12% de l’information disponible selon Forrester.
Dans cette perspective, à peine 3,5% des informations récoltées par les marques françaises sur leurs prospects et leurs clients sont réellement utilisables. Quid du reste des données récoltées ? Souvent, elles sont incomplètes, erronées ou inutiles.
Car une information n‘a aucune valeur en soi : elle n’est utile que si on peut la caractériser comme une préférence individuelle. Et le Big Data n’a aucun intérêt en marketing s’il ne nous permet pas de définir, pour chaque client, un écosystème de préférences.
Quelqu’un a demandé du Smart Data ?
Il devient urgent de savoir précisément ce que nos prospects et nos clients attendent. 52% des consommateurs B2B sont prêts à délaisser une marque qui ne leur propose pas une expérience personnalisée et intégrée sur l’ensemble des canaux de communication. Chez les clients B2C, la proportion monte à 62% ! Comme le disait Gary King, chercheur à Harvard : « Le Big Data n’est pas une question de Big Data. » Ah bon ? Non, le Big Data est en train de devenir une question de content marketing.
Je m’explique. D’après Salesforce, même les high-performers du marketing français éprouvent des difficultés à unifier l’information-client provenant des différents points de contact et des différents canaux de communication. La solution est pourtant à portée de main : car qu’est-ce qui relie l’ensemble de la communication d’une marque ? Le contenu qu’elle produit, décliné à partir d’une charte éditoriale et incarné dans ses prises de paroles.
Le contenu est donc au cœur des enjeux de la data. Une stratégie forte de content marketing permet d’offrir cette expérience personnalisée et intégrée attendue par les clients. Le positionnement éditorial de la marque unifie sa communication sur l’ensemble de ses canaux de diffusion.
La cerise sur le gâteau ? Le contenu génère naturellement des données qualifiées. Site, blog, réseaux sociaux, app, magazine d’entreprise, etc : le contenu crée sans cesse des opportunités d’interactions dont il possible de tirer des conclusions utiles pour caractériser le champ de préférences des clients et des prospects. Les contenus qu’ils consomment et la façon dont ils les consomment nous offrent plus d’informations pertinentes pour personnaliser leurs expériences de marque. Parce que les vidéos qu’on regarde sur Youtube nous définissent peut-être plus que la destination de nos dernières vacances.
Bref, arrêtons de colliger toutes les données possibles et imaginables. Rassemblons celles qui sont pertinentes. Arrêtons de penser big. Commençons à penser smart. Une petite révolution qui passe par le content marketing.
Grégory Nicolaidis est le fondateur et CEO de YouLoveWords.com, société spécialisée dans le marketing de contenu.
-Professeur des Universités honoraire
7 ans"Le contenu est au coeur des enjeux de la data"!!!! Je rêve! Indépendamment du verbiage "branché" du propos, l'auteur ne lésine pas sur les évidences! Finalement on en revient toujours aux propos de Coluche qui disait qu'il avait un prof qui lui parlait constamment d'intelligence (smart...?)mais n'avait pas un échantillon sur lui!
secrétaire
7 ansBravo! Tout est dans la complémentarité les machines et l'humain. En effet, la vitesse d'enregistrement des données du Big Data entrave la pertinence de la réflexion et perception humaine.
Director EITFood North & East Region, Leader EITFood’s Protein Diversification Think Tank, Founder of Hyphenity
7 ansTrès Smart! Et il faudrait appliquer cela aussi dans transmission de l'information.