Lorsqu’on réalise un Data Studio avec plusieurs sources de données et champs calculés on remarque tout de suite quelque chose : « mais pourquoi mon dashboard met 1000 ans à s’ouvrir ? ». Cet inconvénient peut clairement dégoûter les utilisateurs. On va voir comment accélérer tout ça avec le connecteur « Extraire les données »
Les problèmes de performances
Si vous avez l’habitude de connecter plusieurs sources de données ou de manipuler des sources de données combinées et que vous chargez tout ceci gentiment sur un dashboard, et bien vous savez de quoi je parle. Le chargement des données peut prendre jusqu’à 1 minute, une éternité ! La faute à qui ? Aux connecteurs natifs qui sont mal optimisés pour collecter les données.
La solution simple et rapide réside dans l’utilisation d’un connecteur révolutionnaire intitulé « Extraire les données » comme on l’a vu dans l’article sur le croisement de données Search Console et Google Ads
Comment fonctionne le connecteur « Extraire les données » ?
« Extraire les données » se plug sur une source de donnée précédemment connectée au Data Studio et génére une instance de cette source de donnée plus légère et stockée sur le Google Cloud Platform (GCP) de Google. Vous n’avez pas accès à cette table sur votre propre compte GCP, elle se gère directement dans Data Studio.
Oui, Google nous prête gentiment son cloud, il est SYM-PA ! Mais dis-donc, ce serait pas un moyen de nous donner goût à des performances optimales d’extraction de donnée pour qu’on s’offre par la suite un compte Big Query ? 🙂
Concernant la mise à jour automatique de la table, elle est configurable dans le connecteur. Vous pouvez choisir la date de début ainsi que la périodicité de la mise à jour. Attention, les données ne s’ajoutent pas à la table mais la table est régénérée à interval défini par la période de mise à jour . Il s’agit donc d’une période de donnée glissante.
Comment s’utilise le connecteur « Extraire les données » ?
Voici les étapes pour créer une instance de source de donnée avec le connecteur « Extraire les données »
Temps nécessaire : 30 minutes
- Connecter une source de donnée au Data Studio
Exemple : Search Console « Impression Site »
- Revenir à l’écran des connecteurs et sélectionner « Extraire les données »
L’écran de configuration du connecteur s’ouvre
- A gauche, sélectionner la source de donée précédemment créée
Les dimensions et metriques de la source de donnée sélectionnée s’affichent
- « Drag & droper » les dimensions et métriques que vous souhaitez utiliser
Il est nécessaire d’avoir cadrer votre dashboard avant cette étape pour sélectionner uniquement les champs nécessaires
- Configurer la période d’extraction dans le sélecteur de date
Tester une première fois avec la période « 28 derniers jours » et pousser jusqu’à 2 mois si la taille limite n’est pas dépassée
- (optionnel) Ajouter un ou plusieurs filtres
Cela réduira encore davantage la taille de le table finale
- A droite, activer la mise à jour automatique de la table
- Enfin, cliquer sur « Enregistrer et extraire »
Si la table fait plus de 100 Mo, un message d’erreur s’affiche. Il faudra alors revoir la configuration du connecteur en réduisant la période d’extraction ou le nombre de champs à extraire.
La limite de 100 Mo
On peut clairement utiliser ce connecteur pour gérer toutes les sources de données qui sont lentes à charger.
La seule limite reste la taille maximale autorisée de la table qui est de 100 Mo. Ce qui nous laisse un peu de marge.
Il existe deux façons de palier cette limite :
- Réduire la période d’extraction : 2 mois d’historique max permet généralement d’avoir une table de moins de 100 Mo
- Limiter le nombre de champs (dimensions, métriques) à extraire : 5 à 10 champs est une bonne moyenne
La taille d’une table dépend essentiellement du nombre de colonnes de la table. C’est pourquoi on peut faire varier le nombre de champs à extraire afin de réduire son poids.
Vous l’avez compris, cela ne peut pas s’appliquer si vous souhaitez avoir l’exhaustivité des données avec l’historique complet d’un outil de tracking SEO. Il faudra dans ce cas passer par BigQuery.
Applications
On se retrouve donc avec une instance de notre source de donnée préférée qui compile 2 mois de données et qui se charge rapidement. Voici quelques exemples d’applications :
- Les sources de données mixtes (jointure)
- Créer une table distincte par graphique : même si ils utilisent la même source de donnée, ils n’utilisent pas toutes les dimensions
- Tester des design de dashboard avec moins de données pour gagner en rapidité lors de l’édition du dahsboard