{"version":"1.1","schema_version":"1.1.0","plugin_version":"1.1.2","url":"https://peakace.fr/blog/seo/stocker-les-donnees-google-search-console-un-enjeu-de-performance/","llm_html_url":"https://peakace.fr/blog/seo/stocker-les-donnees-google-search-console-un-enjeu-de-performance/llm","llm_json_url":"https://peakace.fr/blog/seo/stocker-les-donnees-google-search-console-un-enjeu-de-performance/llm.json","manifest_url":"https://peakace.fr/llm-endpoints-manifest.json","language":"fr-FR","locale":"fr_FR","title":"Stocker les données GSC : un enjeu de performance","site":{"name":"Peak Ace","url":"https://peakace.fr/"},"author":{"id":12,"name":"Adama Tandia","url":"https://peakace.fr/blog/author/adama/"},"published_at":"2025-02-26T17:41:26+00:00","modified_at":"2025-08-05T12:57:48+00:00","word_count":1271,"reading_time_seconds":382,"summary":"Le plus important lors de la mise en place d’une stratégie SEO, c’est de s’assurer que vous avez la capacité [&hellip;]","summary_points":["Le plus important lors de la mise en place d’une stratégie SEO, c’est de s’assurer que vous avez la capacité de jauger l’impact de vos actions.","Pour cela, nous utilisons entre autres la Google Search Console qui est devenu un outil indispensable pour le SEO car elle permet d’avoir des données sur&nbsp;:\n\n\n\n\nLes performances de recherches d’un site web\n\n\n\nL’indexation des pages\n\n\n\nLes problèmes techniques\n\n\n\nL’expérience utilisateur\n\n\n\nLes backlinks&nbsp;(liens externes)\n\n\n\nLes données structurées\n\n\n\n\nLes données qui vont nous intéresser ici, ce sont les performances de recherches, car les KPI fournit se confrontent à 2 problématiques majeures.","La search console remonte des données à 16 mois maximum.","Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site."],"topics":["Astuces SEO","Outils SEO","SEO"],"entities":[],"entities_metadata":[{"id":6,"name":"Astuces SEO","slug":"astuces-seo","taxonomy":"category","count":137,"url":"https://peakace.fr/categories/seo/astuces-seo/"},{"id":374,"name":"Outils SEO","slug":"outils-seo","taxonomy":"category","count":28,"url":"https://peakace.fr/categories/seo/outils-seo/"},{"id":5,"name":"SEO","slug":"seo","taxonomy":"category","count":267,"url":"https://peakace.fr/categories/seo/"}],"tags":["Astuces SEO","Outils SEO","SEO"],"content_hash":"0011ea7085e82f840b0b3d568f40580b","plain_text":"Le plus important lors de la mise en place d’une stratégie SEO, c’est de s’assurer que vous avez la capacité de jauger l’impact de vos actions.\n\n\n\nPour cela, nous utilisons entre autres la Google Search Console qui est devenu un outil indispensable pour le SEO car elle permet d’avoir des données sur&nbsp;:\n\n\n\n\nLes performances de recherches d’un site web\n\n\n\nL’indexation des pages\n\n\n\nLes problèmes techniques\n\n\n\nL’expérience utilisateur\n\n\n\nLes backlinks&nbsp;(liens externes)\n\n\n\nLes données structurées\n\n\n\n\nLes données qui vont nous intéresser ici, ce sont les performances de recherches, car les KPI fournit se confrontent à 2 problématiques majeures.\n\n\n\n\nLa search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.\n\n\n\nLes données de la search console sont échantillonnées\n\n\n\n\nExemple&nbsp;: Je veux savoir combien de trafic a été généré à la suite de requêtes marques et des requêtes hors marques&nbsp;:\n\n\n\n\nMon trafic global est égal à 100Mon trafic hors marque sera égal à 20\n\nMon trafic marque sera égale à 60\n\n\n\n\n\n\nJ’ai donc 20 de trafic qui a disparu et ce sera encore le cas si j’affine encore plus ma recherche en voulant savoir par exemple le trafic généré en hors marque sur un type de produit.\n\n\n\nPour faire face à ces 2 problématiques, nous pouvons mettre en place une historisation des données de la search console. Pour cela , il existe 2 solutions et chacune d’entre elles a ses avantages et ces inconvénients.\n\n\n\n\n\n\n\n\n    \n      \n        \n          Envie de gagner du temps ?\n\t\t  \n          Faites résumer cet article par l’IA en quelques secondes.\n        \n        \n          \n            Résumer avec l’IA\n          \n        \n      \n    L’historisation des données GSC&nbsp;: un enjeu pour mesurer la performance\n\n\n\nL’historisation des données GSC consiste à collecter, stocker et conserver les données de performances de la search console d’un site web. L’objectif est de pallier la limitation de 16 mois maximum de la GSC en créant votre propre base de données dans laquelle vous pouvez aller piocher pour la connecter à un dashboard de monitoring.\n\n\n\n\n\n\n\nLa méthode de stockage via la connexion native\n\n\n\nLa méthode de connexion native consiste à extraire chaque jour des données de la search console pour les stocker.\n\n\n\nC’est assez simple à réaliser, la seule chose dont vous avez besoin, c’est de connaître la personne qui à la propriété de votre search console, d’avoir un accès GCP (Google Cloud Platform) ce qui peut être compliqué lorsque vous êtes dans une structure qui n’autorise pas l’accès à la suite Google.\n\n\n\nSi ces conditions sont remplies, voici la marche à suivre&nbsp;:\n\n\n\n\nAller sur la Google Search Console\n\n\n\nCliquer sur « Paramètres »\n\n\n\nCliquer sur « Exportation groupée de données »\n\n\n\n\nSuivre le tutoriel :&nbsp; https://support.google.com/webmasters/answer/12917675?hl=fr\n\n\n\n\n\n\n\nLa méthode de stockage via l’api\n\n\n\nLa méthode de stockage via l’API consiste à piocher dans la search console pour y extraire 16 mois de données.\n\n\n\n\n\n\n\nC’est une solution plus complexe à mettre en place pour laquelle Peak Ace peut vous accompagner soit en le réalisant pour vous, soit en vous apprenant à le faire pour que vous soyez indépendant dans la gestion de vos données.\n\n\n\n\n\n\n\nLes avantages et inconvénients de chaque solution \n\n\n\nPour identifier les avantages et inconvénients, nous allons prendre en compte les 2 problématiques majeures que nous cherchons à palier&nbsp;:\n\n\n\n\nLa search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.\n\n\n\nLes données de la search console sont échantillonnées\n\n\n\n\nLa connexion native&nbsp;\n\n\n\nAvantage&nbsp;:\n\n\n\n\nEchantillonnage&nbsp;: la connexion native offre la donnée la plus fiable, car elle est très peu échantillonnée. Cela permet de réaliser des analyses poussées en gardant assez de données pour que ce soit assez parlant là ou l’échantillonnage avec la connexion de base à la search console pouvait amener à des situations où on se retrouvait avec des KPI très bas à la fin.\n\n\n\n\nInconvénients&nbsp;:\n\n\n\n\nLimite de 16 mois&nbsp;: C’est un défaut qui reste vrai dans 16 mois qui suivent la mise en place de la connexion, car elle commence à partir du moment où la connexion est réalisé et n’est pas rétroactive. C’est-à-dire que si vous faites la connexion le 19 février 2025 à 10h48, vous allez stocker les données à partir de ce moment uniquement. Vous pourrez donc palier la limite de 16 à partir d’aout 2026. Cependant, à partir du moment où vous faites la connexion, il n’y a plus d’actions à réaliser, c’est automatique.\n\n\n\n\nLa connexion à l’API&nbsp;\n\n\n\nAvantage&nbsp;:\n\n\n\n\nLimite de 16 mois&nbsp;: Ici, vu que nous allons piocher dans les 16 derniers mois, nous réglons le problème dès le lendemain de la connexion car on obtient 16 mois et 1 jour. En revanche, à la différence de la connexion native, l’extraction de données ne se met pas à jour. C’est-à-dire que si vous faites la connexion en février 2025, vous allez stocker les 16 derniers mois, mais si vous voulez les données de mars, vous devez refaire une extraction de données.\n\n\n\n\nInconvénients&nbsp;:\n\n\n\nEchantillonnage&nbsp;: Si vous possédez un petit site qui capitalise sur peu de mots-clés, il n’y a pas de problème ici. En revanche, si vous avez un assez gros site, c’est une solution qui n’est pas pour vous.\n\n\n\nVous allez perdre énormément de données, car l’extraction de données est limitée à 50&nbsp;000 mots-clés par jour ce qui pour un gros e-commerce est très problématique.\n\n\n\n\n\n\n\nNombre de MC analysés par jour\n\n\n\nVous pouvez voir ici la différence entre la connexion native et la connexion à l’api. Comme l’API se limite à 50K de mots-clés par jour, vous vous privez de toutes les données qui ont été générés au-delà des 50K donc des mots-clés longues traines qui vont être très stratégiques pour un e-commerce par exemple.\n\n\n\n\n\n\n\nDonc, comment répondre aux problématiques d&rsquo;échantillonnage et d&rsquo;historisation des données ?\n\n\n\nVoici un tableau récapitulatif de la manière qu’a chaque solution de répondre aux problématiques d’échantillonnage et d’historisation des données. \n\n\n\n\n\n\n\nDe notre côté nous vous conseillons si vous en avez la possibilité de faire la connexion native le plus rapidement possible. Cela permettra de palier son principal défaut qui est de ne pas aller piocher dans le passé. Plus tôt vous ferez la connexion, plus tôt vous pourrez vous débarrasser de cette contrainte.\n\n\n\nLa solution de l’API est adaptée pour les petits sites qui ne seront pas impactés par la limite de 50K de mots-clés par jour. Car indépendamment de ça elle permet d’aller piocher dans les 16 derniers mois.\n\n\n\nElle peut aussi servir de solution de repli pour les sites qui n’ont pas d’accès GCP, mais dans ce cas, nous vous recommandons de passer par la solution de base si vous êtes impactez par limite des 50k car elle peut vous priver de beaucoup de données en fonction de votre couverture sémantique.\n\n\n\n\n\n\n\n\nChatGPTPerplexityGoogle AIWhatsAppLinkedInX (Twitter)","paragraphs":["Le plus important lors de la mise en place d’une stratégie SEO, c’est de s’assurer que vous avez la capacité de jauger l’impact de vos actions.","Pour cela, nous utilisons entre autres la Google Search Console qui est devenu un outil indispensable pour le SEO car elle permet d’avoir des données sur&nbsp;:","Les performances de recherches d’un site web","L’indexation des pages","Les problèmes techniques","L’expérience utilisateur","Les backlinks&nbsp;(liens externes)","Les données structurées","Les données qui vont nous intéresser ici, ce sont les performances de recherches, car les KPI fournit se confrontent à 2 problématiques majeures.","La search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.","Les données de la search console sont échantillonnées","Exemple&nbsp;: Je veux savoir combien de trafic a été généré à la suite de requêtes marques et des requêtes hors marques&nbsp;:","Mon trafic global est égal à 100Mon trafic hors marque sera égal à 20","Mon trafic marque sera égale à 60","J’ai donc 20 de trafic qui a disparu et ce sera encore le cas si j’affine encore plus ma recherche en voulant savoir par exemple le trafic généré en hors marque sur un type de produit.","Pour faire face à ces 2 problématiques, nous pouvons mettre en place une historisation des données de la search console. Pour cela , il existe 2 solutions et chacune d’entre elles a ses avantages et ces inconvénients.","Envie de gagner du temps ?\n\t\t  \n          Faites résumer cet article par l’IA en quelques secondes.\n        \n        \n          \n            Résumer avec l’IA\n          \n        \n      \n    L’historisation des données GSC&nbsp;: un enjeu pour mesurer la performance","L’historisation des données GSC consiste à collecter, stocker et conserver les données de performances de la search console d’un site web. L’objectif est de pallier la limitation de 16 mois maximum de la GSC en créant votre propre base de données dans laquelle vous pouvez aller piocher pour la connecter à un dashboard de monitoring.","La méthode de stockage via la connexion native","La méthode de connexion native consiste à extraire chaque jour des données de la search console pour les stocker.","C’est assez simple à réaliser, la seule chose dont vous avez besoin, c’est de connaître la personne qui à la propriété de votre search console, d’avoir un accès GCP (Google Cloud Platform) ce qui peut être compliqué lorsque vous êtes dans une structure qui n’autorise pas l’accès à la suite Google.","Si ces conditions sont remplies, voici la marche à suivre&nbsp;:","Aller sur la Google Search Console","Cliquer sur « Paramètres »","Cliquer sur « Exportation groupée de données »","Suivre le tutoriel :&nbsp; https://support.google.com/webmasters/answer/12917675?hl=fr","La méthode de stockage via l’api","La méthode de stockage via l’API consiste à piocher dans la search console pour y extraire 16 mois de données.","C’est une solution plus complexe à mettre en place pour laquelle Peak Ace peut vous accompagner soit en le réalisant pour vous, soit en vous apprenant à le faire pour que vous soyez indépendant dans la gestion de vos données.","Les avantages et inconvénients de chaque solution","Pour identifier les avantages et inconvénients, nous allons prendre en compte les 2 problématiques majeures que nous cherchons à palier&nbsp;:","La search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.","Les données de la search console sont échantillonnées","La connexion native&nbsp;","Avantage&nbsp;:","Echantillonnage&nbsp;: la connexion native offre la donnée la plus fiable, car elle est très peu échantillonnée. Cela permet de réaliser des analyses poussées en gardant assez de données pour que ce soit assez parlant là ou l’échantillonnage avec la connexion de base à la search console pouvait amener à des situations où on se retrouvait avec des KPI très bas à la fin.","Inconvénients&nbsp;:","Limite de 16 mois&nbsp;: C’est un défaut qui reste vrai dans 16 mois qui suivent la mise en place de la connexion, car elle commence à partir du moment où la connexion est réalisé et n’est pas rétroactive. C’est-à-dire que si vous faites la connexion le 19 février 2025 à 10h48, vous allez stocker les données à partir de ce moment uniquement. Vous pourrez donc palier la limite de 16 à partir d’aout 2026. Cependant, à partir du moment où vous faites la connexion, il n’y a plus d’actions à réaliser, c’est automatique.","La connexion à l’API&nbsp;","Avantage&nbsp;:","Limite de 16 mois&nbsp;: Ici, vu que nous allons piocher dans les 16 derniers mois, nous réglons le problème dès le lendemain de la connexion car on obtient 16 mois et 1 jour. En revanche, à la différence de la connexion native, l’extraction de données ne se met pas à jour. C’est-à-dire que si vous faites la connexion en février 2025, vous allez stocker les 16 derniers mois, mais si vous voulez les données de mars, vous devez refaire une extraction de données.","Inconvénients&nbsp;:","Echantillonnage&nbsp;: Si vous possédez un petit site qui capitalise sur peu de mots-clés, il n’y a pas de problème ici. En revanche, si vous avez un assez gros site, c’est une solution qui n’est pas pour vous.","Vous allez perdre énormément de données, car l’extraction de données est limitée à 50&nbsp;000 mots-clés par jour ce qui pour un gros e-commerce est très problématique.","Nombre de MC analysés par jour","Vous pouvez voir ici la différence entre la connexion native et la connexion à l’api. Comme l’API se limite à 50K de mots-clés par jour, vous vous privez de toutes les données qui ont été générés au-delà des 50K donc des mots-clés longues traines qui vont être très stratégiques pour un e-commerce par exemple.","Donc, comment répondre aux problématiques d&rsquo;échantillonnage et d&rsquo;historisation des données ?","Voici un tableau récapitulatif de la manière qu’a chaque solution de répondre aux problématiques d’échantillonnage et d’historisation des données.","De notre côté nous vous conseillons si vous en avez la possibilité de faire la connexion native le plus rapidement possible. Cela permettra de palier son principal défaut qui est de ne pas aller piocher dans le passé. Plus tôt vous ferez la connexion, plus tôt vous pourrez vous débarrasser de cette contrainte.","La solution de l’API est adaptée pour les petits sites qui ne seront pas impactés par la limite de 50K de mots-clés par jour. Car indépendamment de ça elle permet d’aller piocher dans les 16 derniers mois.","Elle peut aussi servir de solution de repli pour les sites qui n’ont pas d’accès GCP, mais dans ce cas, nous vous recommandons de passer par la solution de base si vous êtes impactez par limite des 50k car elle peut vous priver de beaucoup de données en fonction de votre couverture sémantique.","ChatGPTPerplexityGoogle AIWhatsAppLinkedInX (Twitter)"],"content_blocks":[{"id":"paragraph-1","type":"core/paragraph","heading":"","plain_text":"Le plus important lors de la mise en place d’une stratégie SEO, c’est de s’assurer que vous avez la capacité de jauger l’impact de vos actions.","html":"\n<p><strong>Le plus important lors de la mise en place d’une stratégie SEO, c’est de s’assurer que vous avez la capacité de jauger l’impact de vos actions.</strong></p>\n"},{"id":"paragraph-2","type":"core/paragraph","heading":"","plain_text":"Pour cela, nous utilisons entre autres la Google Search Console qui est devenu un outil indispensable pour le SEO car elle permet d’avoir des données sur&nbsp;:","html":"\n<p>Pour cela, nous utilisons entre autres la Google Search Console qui est devenu un outil indispensable pour le SEO car elle permet d’avoir des données sur&nbsp;:</p>\n"},{"id":"list-3","type":"core/list","heading":"","plain_text":"Les performances de recherches d’un site web\n\n\n\nL’indexation des pages\n\n\n\nLes problèmes techniques\n\n\n\nL’expérience utilisateur\n\n\n\nLes backlinks&nbsp;(liens externes)\n\n\n\nLes données structurées","html":"\n<ul class=\"wp-block-list\">\n<li>Les performances de recherches d’un site web</li>\n\n\n\n<li>L’indexation des pages</li>\n\n\n\n<li>Les problèmes techniques</li>\n\n\n\n<li>L’expérience utilisateur</li>\n\n\n\n<li>Les backlinks&nbsp;(liens externes)</li>\n\n\n\n<li>Les données structurées</li>\n</ul>\n"},{"id":"paragraph-4","type":"core/paragraph","heading":"","plain_text":"Les données qui vont nous intéresser ici, ce sont les performances de recherches, car les KPI fournit se confrontent à 2 problématiques majeures.","html":"\n<p>Les données qui vont nous intéresser ici, ce sont les performances de recherches<strong>, car les KPI fournit se confrontent à 2 problématiques majeures.</strong></p>\n"},{"id":"list-5","type":"core/list","heading":"","plain_text":"La search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.\n\n\n\nLes données de la search console sont échantillonnées","html":"\n<ol class=\"wp-block-list\">\n<li>La search console remonte des données à <strong>16 mois maximum</strong>. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.</li>\n\n\n\n<li><strong>Les données de la search console sont échantillonnées</strong></li>\n</ol>\n"},{"id":"paragraph-6","type":"core/paragraph","heading":"","plain_text":"Exemple&nbsp;: Je veux savoir combien de trafic a été généré à la suite de requêtes marques et des requêtes hors marques&nbsp;:","html":"\n<p>Exemple&nbsp;: Je veux savoir combien de trafic a été généré à la suite de requêtes marques et des requêtes hors marques&nbsp;:</p>\n"},{"id":"list-7","type":"core/list","heading":"","plain_text":"Mon trafic global est égal à 100Mon trafic hors marque sera égal à 20\n\nMon trafic marque sera égale à 60","html":"\n<ul class=\"wp-block-list\">\n<li>Mon trafic global est égal à 100<ul><li>Mon trafic hors marque sera égal à 20</li></ul>\n<ul class=\"wp-block-list\">\n<li>Mon trafic marque sera égale à 60</li>\n</ul>\n</li>\n</ul>\n"},{"id":"paragraph-8","type":"core/paragraph","heading":"","plain_text":"J’ai donc 20 de trafic qui a disparu et ce sera encore le cas si j’affine encore plus ma recherche en voulant savoir par exemple le trafic généré en hors marque sur un type de produit.","html":"\n<p>J’ai donc 20 de trafic qui a disparu et ce sera encore le cas si j’affine encore plus ma recherche en voulant savoir par exemple le trafic généré en hors marque sur un type de produit.</p>\n"},{"id":"paragraph-9","type":"core/paragraph","heading":"","plain_text":"Pour faire face à ces 2 problématiques, nous pouvons mettre en place une historisation des données de la search console. Pour cela , il existe 2 solutions et chacune d’entre elles a ses avantages et ces inconvénients.","html":"\n<p>Pour faire face à ces 2 problématiques, nous pouvons mettre en place une historisation des données de la search console. Pour cela , il existe 2 solutions et chacune d’entre elles a ses avantages et ces inconvénients.</p>\n"},{"id":"heading-10","type":"core/heading","heading":"L’historisation des données GSC&nbsp;: un enjeu pour mesurer la performance","plain_text":"L’historisation des données GSC&nbsp;: un enjeu pour mesurer la performance","html":"\n<h2 class=\"wp-block-heading\">L’historisation des données GSC&nbsp;: un enjeu pour mesurer la performance</h2>\n"},{"id":"paragraph-11","type":"core/paragraph","heading":"","plain_text":"L’historisation des données GSC consiste à collecter, stocker et conserver les données de performances de la search console d’un site web. L’objectif est de pallier la limitation de 16 mois maximum de la GSC en créant votre propre base de données dans laquelle vous pouvez aller piocher pour la connecter à un dashboard de monitoring.","html":"\n<p>L’historisation des données <a href=\"https://peakace.fr/blog/seo/definitions-quest-ce-que-la-google-search-console/\">GSC</a> consiste à collecter, stocker et conserver les données de performances de la search console d’un site web. L’objectif est de pallier la limitation de 16 mois maximum de la GSC en créant votre propre base de données dans laquelle vous pouvez aller piocher pour la connecter à un <a href=\"https://peakace.fr/blog/data-et-ia/comment-creer-un-data-studio-seo-efficace-en-moins-de-30-minutes/\">dashboard</a> de monitoring.</p>\n"},{"id":"heading-12","type":"core/heading","heading":"La méthode de stockage via la connexion native","plain_text":"La méthode de stockage via la connexion native","html":"\n<h3 class=\"wp-block-heading\">La méthode de stockage via la connexion native</h3>\n"},{"id":"paragraph-13","type":"core/paragraph","heading":"","plain_text":"La méthode de connexion native consiste à extraire chaque jour des données de la search console pour les stocker.","html":"\n<p>La méthode de connexion native consiste à extraire chaque jour des données de la search console pour les stocker.</p>\n"},{"id":"paragraph-14","type":"core/paragraph","heading":"","plain_text":"C’est assez simple à réaliser, la seule chose dont vous avez besoin, c’est de connaître la personne qui à la propriété de votre search console, d’avoir un accès GCP (Google Cloud Platform) ce qui peut être compliqué lorsque vous êtes dans une structure qui n’autorise pas l’accès à la suite Google.","html":"\n<p>C’est assez simple à réaliser, la seule chose dont vous avez besoin, c’est de connaître la personne qui à la propriété de votre search console, d’avoir un accès GCP (Google Cloud Platform) ce qui peut être compliqué lorsque vous êtes dans une structure qui n’autorise pas l’accès à la suite Google.</p>\n"},{"id":"paragraph-15","type":"core/paragraph","heading":"","plain_text":"Si ces conditions sont remplies, voici la marche à suivre&nbsp;:","html":"\n<p>Si ces conditions sont remplies, voici la marche à suivre&nbsp;:</p>\n"},{"id":"list-16","type":"core/list","heading":"","plain_text":"Aller sur la Google Search Console\n\n\n\nCliquer sur \"Paramètres\"\n\n\n\nCliquer sur \"Exportation groupée de données\"","html":"\n<ul class=\"wp-block-list\">\n<li>Aller sur la Google Search Console</li>\n\n\n\n<li>Cliquer sur \"Paramètres\"</li>\n\n\n\n<li>Cliquer sur \"Exportation groupée de données\"</li>\n</ul>\n"},{"id":"paragraph-17","type":"core/paragraph","heading":"","plain_text":"Suivre le tutoriel :&nbsp; https://support.google.com/webmasters/answer/12917675?hl=fr","html":"\n<p>Suivre le tutoriel :&nbsp; <a href=\"https://support.google.com/webmasters/answer/12917675?hl=fr\">https://support.google.com/webmasters/answer/12917675?hl=fr</a></p>\n"},{"id":"heading-18","type":"core/heading","heading":"La méthode de stockage via l’api","plain_text":"La méthode de stockage via l’api","html":"\n<h3 class=\"wp-block-heading\">La méthode de stockage via l’api</h3>\n"},{"id":"paragraph-19","type":"core/paragraph","heading":"","plain_text":"La méthode de stockage via l’API consiste à piocher dans la search console pour y extraire 16 mois de données.","html":"\n<p>La méthode de stockage via l’API consiste à piocher dans la search console pour y extraire 16 mois de données.</p>\n"},{"id":"paragraph-20","type":"core/paragraph","heading":"","plain_text":"C’est une solution plus complexe à mettre en place pour laquelle Peak Ace peut vous accompagner soit en le réalisant pour vous, soit en vous apprenant à le faire pour que vous soyez indépendant dans la gestion de vos données.","html":"\n<p>C’est une solution plus complexe à mettre en place pour laquelle <a href=\"https://peakace.fr/\">Peak Ace</a> peut vous accompagner soit en le réalisant pour vous, soit en vous apprenant à le faire pour que vous soyez indépendant dans la gestion de vos données.</p>\n"},{"id":"heading-21","type":"core/heading","heading":"Les avantages et inconvénients de chaque solution","plain_text":"Les avantages et inconvénients de chaque solution","html":"\n<h3 class=\"wp-block-heading\">Les avantages et inconvénients de chaque solution </h3>\n"},{"id":"paragraph-22","type":"core/paragraph","heading":"","plain_text":"Pour identifier les avantages et inconvénients, nous allons prendre en compte les 2 problématiques majeures que nous cherchons à palier&nbsp;:","html":"\n<p>Pour identifier les avantages et inconvénients, nous allons prendre en compte les 2 problématiques majeures que nous cherchons à palier&nbsp;:</p>\n"},{"id":"list-23","type":"core/list","heading":"","plain_text":"La search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.\n\n\n\nLes données de la search console sont échantillonnées","html":"\n<ol class=\"wp-block-list\">\n<li>La search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.</li>\n\n\n\n<li>Les données de la search console sont échantillonnées</li>\n</ol>\n"},{"id":"paragraph-24","type":"core/paragraph","heading":"","plain_text":"La connexion native&nbsp;","html":"\n<p><strong>La connexion native&nbsp;</strong></p>\n"},{"id":"paragraph-25","type":"core/paragraph","heading":"","plain_text":"Avantage&nbsp;:","html":"\n<p>Avantage&nbsp;:</p>\n"},{"id":"list-26","type":"core/list","heading":"","plain_text":"Echantillonnage&nbsp;: la connexion native offre la donnée la plus fiable, car elle est très peu échantillonnée. Cela permet de réaliser des analyses poussées en gardant assez de données pour que ce soit assez parlant là ou l’échantillonnage avec la connexion de base à la search console pouvait amener à des situations où on se retrouvait avec des KPI très bas à la fin.","html":"\n<ul class=\"wp-block-list\">\n<li>Echantillonnage&nbsp;: la connexion native offre la donnée la plus fiable, car elle est très peu échantillonnée. Cela permet de réaliser des analyses poussées en gardant assez de données pour que ce soit assez parlant là ou l’échantillonnage avec la connexion de base à la search console pouvait amener à des situations où on se retrouvait avec des KPI très bas à la fin.</li>\n</ul>\n"},{"id":"paragraph-27","type":"core/paragraph","heading":"","plain_text":"Inconvénients&nbsp;:","html":"\n<p>Inconvénients&nbsp;:</p>\n"},{"id":"list-28","type":"core/list","heading":"","plain_text":"Limite de 16 mois&nbsp;: C’est un défaut qui reste vrai dans 16 mois qui suivent la mise en place de la connexion, car elle commence à partir du moment où la connexion est réalisé et n’est pas rétroactive. C’est-à-dire que si vous faites la connexion le 19 février 2025 à 10h48, vous allez stocker les données à partir de ce moment uniquement. Vous pourrez donc palier la limite de 16 à partir d’aout 2026. Cependant, à partir du moment où vous faites la connexion, il n’y a plus d’actions à réaliser, c’est automatique.","html":"\n<ul class=\"wp-block-list\">\n<li>Limite de 16 mois&nbsp;: C’est un défaut qui reste vrai dans 16 mois qui suivent la mise en place de la connexion, car elle commence à partir du moment où la connexion est réalisé et n’est pas rétroactive. C’est-à-dire que si vous faites la connexion le 19 février 2025 à 10h48, vous allez stocker les données à partir de ce moment uniquement. Vous pourrez donc palier la limite de 16 à partir d’aout 2026. Cependant, à partir du moment où vous faites la connexion, il n’y a plus d’actions à réaliser, c’est automatique.</li>\n</ul>\n"},{"id":"paragraph-29","type":"core/paragraph","heading":"","plain_text":"La connexion à l’API&nbsp;","html":"\n<p><strong>La connexion à l’API&nbsp;</strong></p>\n"},{"id":"paragraph-30","type":"core/paragraph","heading":"","plain_text":"Avantage&nbsp;:","html":"\n<p>Avantage&nbsp;:</p>\n"},{"id":"list-31","type":"core/list","heading":"","plain_text":"Limite de 16 mois&nbsp;: Ici, vu que nous allons piocher dans les 16 derniers mois, nous réglons le problème dès le lendemain de la connexion car on obtient 16 mois et 1 jour. En revanche, à la différence de la connexion native, l’extraction de données ne se met pas à jour. C’est-à-dire que si vous faites la connexion en février 2025, vous allez stocker les 16 derniers mois, mais si vous voulez les données de mars, vous devez refaire une extraction de données.","html":"\n<ul class=\"wp-block-list\">\n<li>Limite de 16 mois&nbsp;: Ici, vu que nous allons piocher dans les 16 derniers mois, nous réglons le problème dès le lendemain de la connexion car on obtient 16 mois et 1 jour. En revanche, à la différence de la connexion native, l’extraction de données ne se met pas à jour. C’est-à-dire que si vous faites la connexion en février 2025, vous allez stocker les 16 derniers mois, mais si vous voulez les données de mars, vous devez refaire une extraction de données.</li>\n</ul>\n"},{"id":"paragraph-32","type":"core/paragraph","heading":"","plain_text":"Inconvénients&nbsp;:","html":"\n<p>Inconvénients&nbsp;:</p>\n"},{"id":"paragraph-33","type":"core/paragraph","heading":"","plain_text":"Echantillonnage&nbsp;: Si vous possédez un petit site qui capitalise sur peu de mots-clés, il n’y a pas de problème ici. En revanche, si vous avez un assez gros site, c’est une solution qui n’est pas pour vous.","html":"\n<p>Echantillonnage&nbsp;: Si vous possédez un petit site qui capitalise sur peu de mots-clés, il n’y a pas de problème ici. En revanche, si vous avez un assez gros site, c’est une solution qui n’est pas pour vous.</p>\n"},{"id":"paragraph-34","type":"core/paragraph","heading":"","plain_text":"Vous allez perdre énormément de données, car l’extraction de données est limitée à 50&nbsp;000 mots-clés par jour ce qui pour un gros e-commerce est très problématique.","html":"\n<p>Vous allez perdre énormément de données, car l’extraction de données est limitée à 50&nbsp;000 mots-clés par jour ce qui pour un gros e-commerce est très problématique.</p>\n"},{"id":"paragraph-35","type":"core/paragraph","heading":"","plain_text":"Nombre de MC analysés par jour","html":"\n<p class=\"has-text-align-right\"><em>Nombre de MC analysés par jour</em></p>\n"},{"id":"paragraph-36","type":"core/paragraph","heading":"","plain_text":"Vous pouvez voir ici la différence entre la connexion native et la connexion à l’api. Comme l’API se limite à 50K de mots-clés par jour, vous vous privez de toutes les données qui ont été générés au-delà des 50K donc des mots-clés longues traines qui vont être très stratégiques pour un e-commerce par exemple.","html":"\n<p>Vous pouvez voir ici la différence entre la connexion native et la connexion à l’api. Comme l’API se limite à 50K de mots-clés par jour, vous vous privez de toutes les données qui ont été générés au-delà des 50K donc des mots-clés longues traines qui vont être très stratégiques pour un e-commerce par exemple.</p>\n"},{"id":"heading-37","type":"core/heading","heading":"Donc, comment répondre aux problématiques d'échantillonnage et d'historisation des données ?","plain_text":"Donc, comment répondre aux problématiques d'échantillonnage et d'historisation des données ?","html":"\n<h2 class=\"wp-block-heading\">Donc, comment répondre aux problématiques d'échantillonnage et d'historisation des données ?</h2>\n"},{"id":"paragraph-38","type":"core/paragraph","heading":"","plain_text":"Voici un tableau récapitulatif de la manière qu’a chaque solution de répondre aux problématiques d’échantillonnage et d’historisation des données.","html":"\n<p>Voici un tableau récapitulatif de la manière qu’a chaque solution de répondre aux problématiques d’échantillonnage et d’historisation des données. </p>\n"},{"id":"paragraph-39","type":"core/paragraph","heading":"","plain_text":"De notre côté nous vous conseillons si vous en avez la possibilité de faire la connexion native le plus rapidement possible. Cela permettra de palier son principal défaut qui est de ne pas aller piocher dans le passé. Plus tôt vous ferez la connexion, plus tôt vous pourrez vous débarrasser de cette contrainte.","html":"\n<p>De notre côté nous vous conseillons si vous en avez la possibilité de faire la connexion native le plus rapidement possible. Cela permettra de palier son principal défaut qui est de ne pas aller piocher dans le passé. Plus tôt vous ferez la connexion, plus tôt vous pourrez vous débarrasser de cette contrainte.</p>\n"},{"id":"paragraph-40","type":"core/paragraph","heading":"","plain_text":"La solution de l’API est adaptée pour les petits sites qui ne seront pas impactés par la limite de 50K de mots-clés par jour. Car indépendamment de ça elle permet d’aller piocher dans les 16 derniers mois.","html":"\n<p>La solution de l’API est adaptée pour les petits sites qui ne seront pas impactés par la limite de 50K de mots-clés par jour. Car indépendamment de ça elle permet d’aller piocher dans les 16 derniers mois.</p>\n"},{"id":"paragraph-41","type":"core/paragraph","heading":"","plain_text":"Elle peut aussi servir de solution de repli pour les sites qui n’ont pas d’accès GCP, mais dans ce cas, nous vous recommandons de passer par la solution de base si vous êtes impactez par limite des 50k car elle peut vous priver de beaucoup de données en fonction de votre couverture sémantique.","html":"\n<p>Elle peut aussi servir de solution de repli pour les sites qui n’ont pas d’accès GCP, mais dans ce cas, nous vous recommandons de passer par la solution de base si vous êtes impactez par limite des 50k car elle peut vous priver de beaucoup de données en fonction de votre couverture sémantique.</p>\n"}],"sections":[{"id":"paragraph-1","heading":"Paragraph","content":"Le plus important lors de la mise en place d’une stratégie SEO, c’est de s’assurer que vous avez la capacité de jauger l’impact de vos actions."},{"id":"paragraph-2","heading":"Paragraph","content":"Pour cela, nous utilisons entre autres la Google Search Console qui est devenu un outil indispensable pour le SEO car elle permet d’avoir des données sur&nbsp;:"},{"id":"list-3","heading":"List","content":"Les performances de recherches d’un site web\n\n\n\nL’indexation des pages\n\n\n\nLes problèmes techniques\n\n\n\nL’expérience utilisateur\n\n\n\nLes backlinks&nbsp;(liens externes)\n\n\n\nLes données structurées"},{"id":"paragraph-4","heading":"Paragraph","content":"Les données qui vont nous intéresser ici, ce sont les performances de recherches, car les KPI fournit se confrontent à 2 problématiques majeures."},{"id":"list-5","heading":"List","content":"La search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.\n\n\n\nLes données de la search console sont échantillonnées"},{"id":"paragraph-6","heading":"Paragraph","content":"Exemple&nbsp;: Je veux savoir combien de trafic a été généré à la suite de requêtes marques et des requêtes hors marques&nbsp;:"},{"id":"list-7","heading":"List","content":"Mon trafic global est égal à 100Mon trafic hors marque sera égal à 20\n\nMon trafic marque sera égale à 60"},{"id":"paragraph-8","heading":"Paragraph","content":"J’ai donc 20 de trafic qui a disparu et ce sera encore le cas si j’affine encore plus ma recherche en voulant savoir par exemple le trafic généré en hors marque sur un type de produit."},{"id":"paragraph-9","heading":"Paragraph","content":"Pour faire face à ces 2 problématiques, nous pouvons mettre en place une historisation des données de la search console. Pour cela , il existe 2 solutions et chacune d’entre elles a ses avantages et ces inconvénients."},{"id":"heading-10","heading":"L’historisation des données GSC&nbsp;: un enjeu pour mesurer la performance","content":"L’historisation des données GSC&nbsp;: un enjeu pour mesurer la performance"},{"id":"paragraph-11","heading":"Paragraph","content":"L’historisation des données GSC consiste à collecter, stocker et conserver les données de performances de la search console d’un site web. L’objectif est de pallier la limitation de 16 mois maximum de la GSC en créant votre propre base de données dans laquelle vous pouvez aller piocher pour la connecter à un dashboard de monitoring."},{"id":"heading-12","heading":"La méthode de stockage via la connexion native","content":"La méthode de stockage via la connexion native"},{"id":"paragraph-13","heading":"Paragraph","content":"La méthode de connexion native consiste à extraire chaque jour des données de la search console pour les stocker."},{"id":"paragraph-14","heading":"Paragraph","content":"C’est assez simple à réaliser, la seule chose dont vous avez besoin, c’est de connaître la personne qui à la propriété de votre search console, d’avoir un accès GCP (Google Cloud Platform) ce qui peut être compliqué lorsque vous êtes dans une structure qui n’autorise pas l’accès à la suite Google."},{"id":"paragraph-15","heading":"Paragraph","content":"Si ces conditions sont remplies, voici la marche à suivre&nbsp;:"},{"id":"list-16","heading":"List","content":"Aller sur la Google Search Console\n\n\n\nCliquer sur \"Paramètres\"\n\n\n\nCliquer sur \"Exportation groupée de données\""},{"id":"paragraph-17","heading":"Paragraph","content":"Suivre le tutoriel :&nbsp; https://support.google.com/webmasters/answer/12917675?hl=fr"},{"id":"heading-18","heading":"La méthode de stockage via l’api","content":"La méthode de stockage via l’api"},{"id":"paragraph-19","heading":"Paragraph","content":"La méthode de stockage via l’API consiste à piocher dans la search console pour y extraire 16 mois de données."},{"id":"paragraph-20","heading":"Paragraph","content":"C’est une solution plus complexe à mettre en place pour laquelle Peak Ace peut vous accompagner soit en le réalisant pour vous, soit en vous apprenant à le faire pour que vous soyez indépendant dans la gestion de vos données."},{"id":"heading-21","heading":"Les avantages et inconvénients de chaque solution","content":"Les avantages et inconvénients de chaque solution"},{"id":"paragraph-22","heading":"Paragraph","content":"Pour identifier les avantages et inconvénients, nous allons prendre en compte les 2 problématiques majeures que nous cherchons à palier&nbsp;:"},{"id":"list-23","heading":"List","content":"La search console remonte des données à 16 mois maximum. Vous ne pouvez donc pas comparer 2 années entre elles et perdez énormément d’information au fil des années sur les performances de recherches de votre site.\n\n\n\nLes données de la search console sont échantillonnées"},{"id":"paragraph-24","heading":"Paragraph","content":"La connexion native&nbsp;"},{"id":"paragraph-25","heading":"Paragraph","content":"Avantage&nbsp;:"},{"id":"list-26","heading":"List","content":"Echantillonnage&nbsp;: la connexion native offre la donnée la plus fiable, car elle est très peu échantillonnée. Cela permet de réaliser des analyses poussées en gardant assez de données pour que ce soit assez parlant là ou l’échantillonnage avec la connexion de base à la search console pouvait amener à des situations où on se retrouvait avec des KPI très bas à la fin."},{"id":"paragraph-27","heading":"Paragraph","content":"Inconvénients&nbsp;:"},{"id":"list-28","heading":"List","content":"Limite de 16 mois&nbsp;: C’est un défaut qui reste vrai dans 16 mois qui suivent la mise en place de la connexion, car elle commence à partir du moment où la connexion est réalisé et n’est pas rétroactive. C’est-à-dire que si vous faites la connexion le 19 février 2025 à 10h48, vous allez stocker les données à partir de ce moment uniquement. Vous pourrez donc palier la limite de 16 à partir d’aout 2026. Cependant, à partir du moment où vous faites la connexion, il n’y a plus d’actions à réaliser, c’est automatique."},{"id":"paragraph-29","heading":"Paragraph","content":"La connexion à l’API&nbsp;"},{"id":"paragraph-30","heading":"Paragraph","content":"Avantage&nbsp;:"},{"id":"list-31","heading":"List","content":"Limite de 16 mois&nbsp;: Ici, vu que nous allons piocher dans les 16 derniers mois, nous réglons le problème dès le lendemain de la connexion car on obtient 16 mois et 1 jour. En revanche, à la différence de la connexion native, l’extraction de données ne se met pas à jour. C’est-à-dire que si vous faites la connexion en février 2025, vous allez stocker les 16 derniers mois, mais si vous voulez les données de mars, vous devez refaire une extraction de données."},{"id":"paragraph-32","heading":"Paragraph","content":"Inconvénients&nbsp;:"},{"id":"paragraph-33","heading":"Paragraph","content":"Echantillonnage&nbsp;: Si vous possédez un petit site qui capitalise sur peu de mots-clés, il n’y a pas de problème ici. En revanche, si vous avez un assez gros site, c’est une solution qui n’est pas pour vous."},{"id":"paragraph-34","heading":"Paragraph","content":"Vous allez perdre énormément de données, car l’extraction de données est limitée à 50&nbsp;000 mots-clés par jour ce qui pour un gros e-commerce est très problématique."},{"id":"paragraph-35","heading":"Paragraph","content":"Nombre de MC analysés par jour"},{"id":"paragraph-36","heading":"Paragraph","content":"Vous pouvez voir ici la différence entre la connexion native et la connexion à l’api. Comme l’API se limite à 50K de mots-clés par jour, vous vous privez de toutes les données qui ont été générés au-delà des 50K donc des mots-clés longues traines qui vont être très stratégiques pour un e-commerce par exemple."},{"id":"heading-37","heading":"Donc, comment répondre aux problématiques d'échantillonnage et d'historisation des données ?","content":"Donc, comment répondre aux problématiques d'échantillonnage et d'historisation des données ?"},{"id":"paragraph-38","heading":"Paragraph","content":"Voici un tableau récapitulatif de la manière qu’a chaque solution de répondre aux problématiques d’échantillonnage et d’historisation des données."},{"id":"paragraph-39","heading":"Paragraph","content":"De notre côté nous vous conseillons si vous en avez la possibilité de faire la connexion native le plus rapidement possible. Cela permettra de palier son principal défaut qui est de ne pas aller piocher dans le passé. Plus tôt vous ferez la connexion, plus tôt vous pourrez vous débarrasser de cette contrainte."},{"id":"paragraph-40","heading":"Paragraph","content":"La solution de l’API est adaptée pour les petits sites qui ne seront pas impactés par la limite de 50K de mots-clés par jour. Car indépendamment de ça elle permet d’aller piocher dans les 16 derniers mois."},{"id":"paragraph-41","heading":"Paragraph","content":"Elle peut aussi servir de solution de repli pour les sites qui n’ont pas d’accès GCP, mais dans ce cas, nous vous recommandons de passer par la solution de base si vous êtes impactez par limite des 50k car elle peut vous priver de beaucoup de données en fonction de votre couverture sémantique."}],"media":{"primary_image":"https://peakace.fr/wp-content/uploads/2025/02/6831db00998e08367e15146d_664dffcbb47a66043290016f_google-search-console-header.jpg"},"relations":[{"rel":"canonical","href":"https://peakace.fr/blog/seo/stocker-les-donnees-google-search-console-un-enjeu-de-performance/"},{"rel":"alternate","href":"https://peakace.fr/blog/seo/stocker-les-donnees-google-search-console-un-enjeu-de-performance/llm","type":"text/html"},{"rel":"alternate","href":"https://peakace.fr/blog/seo/stocker-les-donnees-google-search-console-un-enjeu-de-performance/llm.json","type":"application/json"},{"rel":"llm-manifest","href":"https://peakace.fr/llm-endpoints-manifest.json","type":"application/json"}],"http_headers":{"X-LLM-Friendly":"1","X-LLM-Schema":"1.1.0","Content-Security-Policy":"default-src 'none'; img-src * data:; style-src 'unsafe-inline'"},"license":"CC BY-ND 4.0","attribution_required":true,"allow_cors":false}