
Comment deux changements techniques chez Google et ChatGPT modifient fondamentalement le paysage actuel de la recherche – Image créative : Xpert.Digital
La fin de la recherche top 100 : Google désactive le paramètre num=100 et la réduction drastique des citations dans ChatGPT
Comment Google et OpenAI ont changé Internet en septembre – Le lien surprenant entre la nouvelle recherche de Google et le silence de ChatGPT
Le paysage de la recherche numérique a connu deux changements notables en septembre 2024, initialement discrets, mais qui auraient eu de profondes répercussions pour les opérateurs de sites web, les experts SEO et les applications d'IA. Le 14 septembre 2024, Google a supprimé le paramètre num=100, tandis que ChatGPT a considérablement réduit l'affichage des citations. Ces deux événements, apparemment sans rapport, révèlent une transformation plus profonde dans la manière dont l'information est découverte, traitée et présentée en ligne.
Convient à:
- NOUVEAU et révélé : Classement Google via les signaux des utilisateurs, les données de Google Chrome et la popularité des sites Web : ce que disent les documents judiciaires
L'arrêt silencieux du paramètre num=100
Google a apporté l'une des modifications les plus importantes à son infrastructure de recherche depuis des années, sans grande annonce publique. Le paramètre d'URL num=100, qui permettait depuis de nombreuses années l'affichage simultané de 100 résultats de recherche, a été complètement désactivé le 14 septembre 2024. Cette innovation technique a eu des conséquences considérables pour l'ensemble du secteur du référencement.
Comment fonctionne le paramètre num=100
Pendant des décennies, les utilisateurs, et en particulier les outils de référencement, pouvaient afficher jusqu'à 100 résultats de recherche sur une seule page en ajoutant « &num=100 » à une URL de recherche Google, au lieu des 10 habituels. Bien que cette fonctionnalité soit pratique pour les utilisateurs réguliers, elle était d'une importance vitale pour le secteur du référencement.
La quasi-totalité des principaux fournisseurs de référencement, tels qu'Ahrefs, Sistrix, SEMrush et les outils de classement spécialisés, utilisaient ce paramètre pour une collecte de données efficace. Ils pouvaient ainsi obtenir l'intégralité des 100 premiers résultats en un seul appel, ce qui était à la fois plus économique et plus rapide que de récupérer les résultats page par page.
Impact massif sur l'industrie du référencement
La désactivation de ce paramètre a entraîné une explosion des coûts dans le secteur du référencement. Les outils de classement doivent désormais effectuer dix requêtes distinctes pour obtenir la même quantité de données qu'auparavant avec une seule requête. Cela représente une multiplication par dix du coût des requêtes et pose déjà de sérieux défis techniques et financiers à plusieurs fournisseurs d'outils.
Les effets ont été immédiatement visibles dans la Search Console de Google : 87,7 % des sites web étudiés ont enregistré une baisse drastique du nombre d'impressions mesurées. Parallèlement, paradoxalement, la position moyenne des sites web s'est améliorée, car moins d'impressions de bas niveau ont été enregistrées entre les positions 11 et 100.
La motivation de Google derrière le changement
Les raisons de la décision de Google sont complexes. D'une part, ce changement réduit considérablement la charge du serveur, car moins de données doivent être traitées par requête. D'autre part, il complique la collecte massive de données par les robots et les services de scraping, ce qui est particulièrement pertinent compte tenu de l'intérêt croissant des entreprises d'IA pour les données de Google.
Un autre aspect concerne l'accompagnement des utilisateurs : Google souhaite les encourager à revenir à la recherche traditionnelle, où ils cliquent sur plusieurs pages et passent plus de temps dans l'environnement Google. Cela renforce la position de Google comme source d'information centrale.
Réduction drastique des citations sur ChatGPT
Parallèlement au changement de Google, OpenAI a apporté une modification tout aussi importante à ChatGPT. Depuis le 11 septembre 2024, le chatbot IA affiche nettement moins de citations et de liens vers des sites web externes. Cette réduction a affecté tous les secteurs et tous les types de contenu de la même manière, quelle que soit la qualité du contenu ou l'autorité de domaine des sources.
L'ampleur de la réduction des citations
Les chiffres sont dramatiques : selon les analyses, les citations sur ChatGPT ont chuté jusqu’à 90 %. Les comptes ChatGPT gratuits sont particulièrement touchés, tandis que les utilisateurs des versions payantes subissent nettement moins de restrictions. Cette évolution accentue l’écart déjà existant entre le trafic des sites web provenant de Google et le trafic nettement inférieur de ChatGPT.
Les économies de coûts comme moteur
OpenAI subit une pression financière énorme. L'entreprise prévoit des pertes d'environ 5 milliards de dollars d'ici 2024, tandis que l'exploitation de ChatGPT coûte jusqu'à 700 000 dollars par jour. Réduire les recherches et les citations sur le web est une mesure de réduction des coûts évidente, car chaque recherche nécessite des ressources de calcul et des appels d'API supplémentaires.
Le coût de la recherche web d'OpenAI a considérablement augmenté. Alors que les anciens modèles offraient un accès gratuit aux recherches web, les nouveaux modèles facturent le prix fort pour les jetons de recherche. Un exemple illustre le dilemme financier : une requête avec GPT-4o coûte 0,13 $, tandis que la même requête avec GPT-5, avec des jetons de recherche web plus complets, coûte 74 $.
La connexion surprenante
La proximité temporelle des deux événements est plus qu'une simple coïncidence. ChatGPT s'appuie fréquemment sur des informations web récentes pour ses réponses, accédant directement aux résultats Google ou indirectement via des services de scraping. La désactivation du paramètre num=100 complique également considérablement la collecte efficace de données web pour ChatGPT et d'autres systèmes d'IA.
Défis techniques pour les systèmes d'IA
Les applications d'IA comme ChatGPT s'appuient sur des données web complètes et actualisées pour générer des réponses pertinentes et précises. Le paramètre num=100 permet à ces systèmes de collecter rapidement et à moindre coût d'importants volumes de résultats de recherche et de sélectionner les meilleures sources pour leurs réponses.
En désactivant ce paramètre, les systèmes d'IA doivent désormais effectuer un nombre nettement plus important de requêtes individuelles, ce qui augmente les coûts de manière exponentielle. Ceci explique pourquoi OpenAI a simultanément réduit la fréquence de citation : les coûts liés à la mise à jour des informations web n'étaient tout simplement plus viables.
Impact sur l'économie du site Web
Les effets combinés de ces deux changements ont transformé durablement le paysage numérique. Les opérateurs de sites web subissent un double coup dur : d'une part, leurs pages sont moins visibles dans la Search Console de Google et, d'autre part, ils reçoivent moins de références d'applications d'IA comme ChatGPT.
Notre recommandation : 🌍 Portée illimitée 🔗 En réseau 🌐 Multilingue 💪 Ventes fortes : 💡 Authentique avec stratégie 🚀 L'innovation rencontre 🧠 Intuition
Du local au mondial : les PME conquièrent le marché mondial avec des stratégies intelligentes - Image : Xpert.Digital
À l’heure où la présence numérique d’une entreprise détermine son succès, l’enjeu est de rendre cette présence authentique, individuelle et d’envergure. Xpert.Digital propose une solution innovante qui se positionne comme une intersection entre un pôle industriel, un blog et un ambassadeur de marque. Elle combine les avantages des canaux de communication et de vente sur une seule plateforme et permet une publication en 18 langues différentes. La coopération avec des portails partenaires et la possibilité de publier des articles sur Google News et une liste de diffusion presse d'environ 8 000 journalistes et lecteurs maximisent la portée et la visibilité du contenu. Cela représente un facteur essentiel dans le domaine des ventes et du marketing externes (SMarketing).
En savoir plus ici :
Les petits fournisseurs en profitent-ils ? La démocratisation inattendue de la recherche
La baisse du trafic en chiffres
Des études révèlent des tendances alarmantes pour les opérateurs de sites web. De nombreux sites indépendants signalent des baisses de trafic de 70 % ou plus. Les éditeurs et créateurs de contenu qui dépendent du trafic des moteurs de recherche sont particulièrement touchés. Des sites d'actualité comme derwesten.de ont perdu 51 % de leur trafic de recherche, express.de 35 % et focus.de 33 %.
Les raisons sont complexes : outre les changements techniques chez Google, les avis IA jouent également un rôle, incitant les utilisateurs à cliquer moins sur les sites web externes. Des études montrent que le taux de clics sur le premier résultat de recherche organique chute jusqu'à 30 % lorsque les réponses générées par l'IA sont présentées.
Convient à:
- Un géant du référencement s'effondre : comment HubSpot a perdu environ 75 à 80 % de son trafic et ce que cela signifie pour vous
Nouveaux défis pour les outils SEO
Le secteur du SEO doit se réorienter en profondeur. De nombreux outils établis affichent actuellement des données incomplètes ou incorrectes, car leur logique d'exploration reposait sur l'ancien paramètre num=100. Les fournisseurs d'outils comme Semrush et Accuranker travaillent d'arrache-pied pour adapter leurs systèmes, mais la hausse des coûts est inévitablement répercutée sur leurs clients.
La démocratisation du paysage de la recherche
Paradoxalement, ces changements pourraient conduire à une démocratisation du paysage de la recherche. La collecte massive de données étant devenue nettement plus coûteuse, les petits sites web et les fournisseurs spécialisés pourraient avoir de meilleures chances de gagner en visibilité. Se concentrer sur les 20 premières positions plutôt que sur l'ensemble des 100 premières reflète mieux le comportement réel des utilisateurs, puisque la plupart des clics aboutissent de toute façon aux premiers résultats de recherche.
Nouvelles stratégies pour les créateurs de contenu
Les opérateurs de sites web doivent adapter leurs stratégies. Plutôt que de privilégier la quantité, la qualité devient primordiale. Les créateurs de contenu doivent se concentrer sur la création de contenu utile et unique, offrant une réelle valeur ajoutée. L'époque où l'optimisation SEO pure suffisait à atteindre le top 100 est révolue.
Parallèlement, de nouvelles opportunités s'ouvrent : les avis et autres systèmes d'IA citent souvent des sites web qui ne sont pas forcément classés de la première à la troisième place sur Google. Un contenu pertinent et bien structuré a plus de chances d'être mentionné dans les réponses générées par l'IA.
L'explosion des coûts des applications d'IA
OpenAI illustre les défis auxquels est confrontée l'industrie de l'IA. L'entreprise prévoit des augmentations de prix drastiques : ChatGPT Plus devrait passer de 20 $ à 22 $ par mois d'ici fin 2024, et même à 44 $ par mois d'ici 2029. Cette évolution reflète les coûts réels du déploiement de l'IA, longtemps financés par les investisseurs.
Modèles commerciaux alternatifs
La hausse des coûts oblige les fournisseurs d'IA à développer de nouveaux modèles économiques. OpenAI teste une tarification à l'usage, où les clients ne paient que la puissance de calcul réellement utilisée. Les API batch permettent déjà de réaliser jusqu'à 50 % d'économies sur les requêtes non urgentes.
Parallèlement, des alternatives plus rentables émergent : des modèles open source comme DeepSeek offrent des performances similaires à un coût bien inférieur. Cette évolution pourrait entraîner une fragmentation du marché de l'IA, avec des cas d'utilisation différents nécessitant des structures tarifaires distinctes.
Le repositionnement stratégique de Google
Google exploite les développements actuels pour renforcer sa position sur le marché. L'introduction des aperçus IA et la limitation simultanée du scraping de données visent à fidéliser les utilisateurs plus longtemps dans son écosystème. Le moteur de recherche se transforme d'intermédiaire en répondeur.
L'avenir de la recherche sur le Web
Les changements actuels marquent un tournant dans l'histoire de la recherche sur le web. La relation symbiotique entre Google et les opérateurs de sites web, qui récompensait le contenu de qualité par le trafic des moteurs de recherche, s'érode rapidement. Les systèmes d'IA consomment du contenu sans générer de trafic proportionnel.
Cela crée un paradoxe : les systèmes d’IA s’appuient sur du contenu de haute qualité, créé par des humains, mais leur utilisation compromet l’économie de la création de contenu. À long terme, cela pourrait entraîner un épuisement du contenu disponible si les opérateurs de sites web sont contraints de cesser leurs activités faute de rentabilité.
Convient à:
- « Cauchemar destructeur de trafic » – Le complexe industriel du référencement et sa complicité – Pourquoi la crise est auto-infligée
Les ajustements techniques et leurs conséquences
Les changements techniques ont déclenché une réaction en chaîne qui a largement dépassé les objectifs initiaux. Google souhaitait probablement réduire la charge du serveur et rendre le scraping plus difficile, mais a involontairement augmenté considérablement les coûts pour l'ensemble du secteur du référencement.
De nouvelles normes de mesure sont nécessaires
Ces changements obligent le secteur à développer de nouvelles normes de mesure. Les indicateurs traditionnels comme les impressions et les classements dans la Search Console de Google perdent de leur pertinence s'ils étaient principalement influencés par des outils automatisés. Les « impressions réelles » des utilisateurs humains prennent de l'importance, permettant une évaluation plus réaliste des performances des sites web.
Les experts SEO doivent ajuster leurs critères d'évaluation et se concentrer davantage sur les indicateurs reflétant les interactions réelles des utilisateurs. Cela pourrait conduire à des méthodes d'analyse plus précises, mais aussi plus complexes.
Le rôle des petits fournisseurs d'IA
Alors qu'OpenAI est confronté à des coûts élevés, les petits fournisseurs d'IA pourraient bénéficier de cette nouvelle situation. Des fournisseurs comme Perplexity ou Claude peuvent obtenir des avantages concurrentiels grâce à des architectures plus performantes ou à des sources de données alternatives.
La spécialisation comme stratégie de survie
La hausse des coûts des systèmes d'IA polyvalents pourrait conduire au développement de solutions spécialisées. Au lieu de tenter de répondre à toutes les requêtes avec des données web actualisées, les systèmes d'IA pourraient être plus sélectifs et n'avoir recours qu'à des recherches web coûteuses pour des types de requêtes spécifiques.
Cela favoriserait une diversification du marché de l'IA, avec différents fournisseurs développant des spécialisations distinctes. Certains pourraient se concentrer sur l'information actuelle, d'autres sur une expertise approfondie sans connexion internet.
Évolution du marché à long terme
Les changements actuels ne sont probablement que le début d'une transformation plus vaste. Google continue d'expérimenter des fonctionnalités d'IA et leur intégration dans la recherche. L'impact complet sur le trafic web et le secteur du contenu ne se fera sentir qu'au fil des mois, voire des années.
Nouveaux modèles de coopération
De nouveaux modèles de collaboration émergent déjà entre les fournisseurs d'IA et les créateurs de contenu. Certains éditeurs négocient des accords de licence directe avec des entreprises d'IA afin de recevoir une part équitable de l'utilisation de leurs contenus. Cette évolution pourrait donner naissance à un nouvel écosystème où les créateurs de contenu seraient directement rémunérés pour l'utilisation de leurs contenus dans les systèmes d'IA.
Recommandations pour les parties prenantes
Les propriétaires de sites web devraient diversifier leurs stratégies et ne pas se fier uniquement au trafic des moteurs de recherche. Il sera de plus en plus important d'établir des relations directes avec les utilisateurs via les newsletters, les réseaux sociaux et d'autres canaux. Parallèlement, ils devraient améliorer la qualité de leur contenu pour être mentionnés dans les réponses générées par l'IA.
Les agences SEO doivent adapter leurs services et se concentrer davantage sur les 20 premières positions, car elles génèrent la majorité du trafic réel. L'ère des analyses exhaustives du top 100 touche à sa fin, ce qui pourrait libérer des ressources pour une optimisation plus poussée.
Les entreprises d'IA doivent relever le défi de développer des modèles économiques durables, adaptés à leurs besoins et à ceux des créateurs de contenu. Les pratiques actuelles d'utilisation gratuite du contenu sont intenables à long terme si elles sapent les fondements de leurs sources de données.
Convient à:
Un tournant dans le paysage de l'information numérique
Les changements techniques apparemment mineurs apportés par Google et ChatGPT marquent un tournant fondamental dans le paysage de l'information numérique. Ils démontrent à quel point l'écosystème Internet tout entier dépend des décisions de quelques grandes entreprises technologiques.
L'effet combiné de ces deux changements accélère la transformation d'un Internet basé sur les liens vers un Internet médiatisé par l'IA. Cette évolution comporte à la fois des opportunités et des risques : les utilisateurs obtiennent des réponses plus rapidement à leurs questions, mais les fondements économiques de la création de contenu sont fondamentalement remis en question.
Le secteur traverse une phase de réorientation où de nouveaux équilibres doivent être trouvés entre fournisseurs de technologies, créateurs de contenu et utilisateurs. Les années à venir montreront quels acteurs sauront s'adapter avec succès à l'évolution du contexte et quels nouveaux modèles économiques émergeront.
La révolution silencieuse bat déjà son plein – ses effets façonneront le paysage numérique pour les années à venir.
Votre partenaire mondial de marketing et de développement commercial
☑️ Notre langue commerciale est l'anglais ou l'allemand
☑️ NOUVEAU : Correspondance dans votre langue nationale !
Je serais heureux de vous servir, vous et mon équipe, en tant que conseiller personnel.
Vous pouvez me contacter en remplissant le formulaire de contact ou simplement m'appeler au +49 89 89 674 804 (Munich) . Mon adresse e-mail est : wolfenstein ∂ xpert.digital
J'attends avec impatience notre projet commun.
☑️ Accompagnement des PME en stratégie, conseil, planification et mise en œuvre
☑️ Création ou réalignement de la stratégie digitale et digitalisation
☑️ Expansion et optimisation des processus de vente à l'international
☑️ Plateformes de trading B2B mondiales et numériques
☑️ Pionnier Développement Commercial / Marketing / RP / Salons
Notre expertise industrielle et économique mondiale en matière de développement commercial, de ventes et de marketing
Notre expertise mondiale en matière de développement commercial, de ventes et de marketing - Image : Xpert.Digital
Secteurs d'activité : B2B, digitalisation (de l'IA à la XR), ingénierie mécanique, logistique, énergies renouvelables et industrie
En savoir plus ici :
Un pôle thématique avec des informations et une expertise :
- Plateforme de connaissances sur l'économie mondiale et régionale, l'innovation et les tendances sectorielles
- Recueil d'analyses, d'impulsions et d'informations contextuelles issues de nos domaines d'intervention
- Un lieu d'expertise et d'information sur les évolutions actuelles du monde des affaires et de la technologie
- Plateforme thématique pour les entreprises qui souhaitent en savoir plus sur les marchés, la numérisation et les innovations du secteur