
Wyszukiwarka Google w erze sztucznej inteligencji: Ekonomiczna reorientacja cyfrowej gospodarki informacyjnej – Zdjęcie: Xpert.Digital
Strukturalna transformacja imperium: dominacja rynkowa pod presją?
Sztuczna inteligencja jako bezpośrednie zagrożenie dla klasycznego modelu biznesowego wyszukiwarek czy strategiczny rozwój już zdominowanego rynku?
W pierwszym kwartale 2025 roku Google oficjalnie nadal prezentuje się jako niekwestionowany lider globalnego rynku wyszukiwania. Z udziałem w rynku wynoszącym 91,55%, firma przetwarza około 8,9 miliarda zapytań dziennie, co przekłada się na około 103 000 zapytań na sekundę, czyli łącznie 2,6 biliona rocznie. Na urządzeniach mobilnych Google utrzymuje praktycznie hegemoniczną pozycję z 96,3% udziałem w rynku. Dane te sugerują niezachwianą dominację, ale pod pozorem statystycznym kryje się znacznie bardziej złożony i zmienny obraz wstrząsów gospodarczych. Sam udział w rynku maskuje fundamentalną transformację w naturze relacji wartości między wolumenem wyszukiwań, zachowaniami użytkowników a zrealizowanymi strumieniami przychodów.
W ostatnich miesiącach 2024 roku miało miejsce rzadkie zjawisko: globalny udział Google w rynku spadł poniżej symbolicznie istotnego progu 90% po raz pierwszy od dekady. W październiku 2024 roku udział ten wynosił 89,34%, w listopadzie 89,99%, a w grudniu 89,73%. To pierwszy stały spadek poniżej tego poziomu od 2015 roku. Chociaż analitycy przypisują ten spadek częściowo zmianom regionalnym w Azji, sytuacja ta sygnalizuje zbieżność kilku sił strukturalnych, które zaczynają fundamentalnie destabilizować tradycyjny ekosystem wyszukiwarek. Chodzi nie tyle o radykalny exodus obecnych użytkowników, co o transformację zachowań wyszukiwawczych i związanych z nimi ekonomicznych ścieżek do sukcesu.
Model biznesowy Google opiera się na eleganckiej, lecz coraz bardziej kruchej architekturze. W 2024 roku firma wygenerowała około 307 miliardów dolarów całkowitego przychodu, z czego około 175 miliardów dolarów pochodziło z reklam w wyszukiwarkach. Stanowi to nie tylko 57 procent całkowitego przychodu, ale także stanowi finansowy fundament całej struktury korporacyjnej. Mechanizmy tego modelu są proste, ale skuteczne: użytkownicy formułują zapytania z wyraźnym lub ukrytym zamiarem zakupu; Google prezentuje reklamy od reklamodawców, którzy płacą za kliknięcia; użytkownicy klikają te reklamy lub organiczne wyniki wyszukiwania; a między użytkownikami, wydawcami i reklamodawcami tworzy się trójstronny rynek.
Podstawą tej architektury jest integracja sztucznej inteligencji, szczególnie poprzez technologię „przeglądów AI”.
Przeglądy sztucznej inteligencji jako niszczyciel modelu biznesowego: wskaźniki spadku
Wprowadzenie przez Google funkcji AI Overviews stanowi punkt zwrotny. Technologia ta prezentuje użytkownikom zsyntetyzowane podsumowania informacji, generowane przez modele generatywne, bezpośrednio na stronie wyników wyszukiwania, bez konieczności przechodzenia do zewnętrznych witryn. Wdrożenie nastąpiło niezwykle szybko: w styczniu 2025 roku AI Overviews pojawiało się w 6,49% wszystkich zapytań. Do marca 2025 roku udział ten podwoił się do około 13,14%. Oznacza to, że obecnie w ponad jednej siódmej wyszukiwań Google na rynku amerykańskim inicjatywa gromadzenia informacji poprzez syntezę AI jest realizowana, zanim użytkownik aktywuje tradycyjny, organiczny wynik wyszukiwania lub płatną reklamę.
Konsekwencje ekonomiczne tej ekspansji szybko stały się oczywiste. Współczynniki klikalności (CTR), fundamentalny wskaźnik wszystkich modeli ekonomicznych cyfrowego kapitalizmu, zareagowały drastycznie. W przypadku zapytań wyszukiwanych za pomocą AI Overviews, organiczny współczynnik klikalności (CTR) gwałtownie spadł z 1,76% w czerwcu 2024 r. do 0,61% we wrześniu 2025 r. Oznacza to spadek o około 65%, czyli, w ujęciu biznesowym, zasób „kliknięcie organicznego wyniku wyszukiwania” stał się o około dwie trzecie bardziej zmienny pod presją sztucznej inteligencji. Jednocześnie płatne reklamy w wyszukiwarkach odnotowały jeszcze bardziej drastyczny spadek: współczynnik klikalności (CTR) spadł z 19,7% do 6,34%, co stanowi spadek o 68%.
Na szczególną uwagę zasługuje wzajemne oddziaływanie tych dwóch efektów: spadek współczynników klikalności spowodowany przez AI Overviews nie ogranicza się do zapytań, w których faktycznie wyświetlane są AI Overviews. Organiczne współczynniki klikalności spadły również o około 41% rok do roku dla zapytań bez AI Overviews. Sugeruje to głębszy efekt behawioralny: użytkownicy fundamentalnie dostosowują swoje wzorce interakcji. Uczą się, że wyniki wyszukiwania coraz rzadziej są warte klikania, ponieważ systemy AI już udzielają odpowiedzi na stronie wyników. Z teoretycznego punktu widzenia ten efekt uczenia się można rozumieć jako formę irracjonalnej awersji do ryzyka lub rutynowego kształtowania się; w rzeczywistości jednak użytkownicy reagują racjonalnie na zmieniający się krajobraz informacyjny.
Łączne skutki tej transformacji są uderzające w swojej dotkliwości. Odsetek „wyszukiwań bez kliknięcia” – wyszukiwań, które nie skutkują kliknięciem zewnętrznego wyniku – wzrósł z 56% do 69%. Z drugiej strony, tylko 31% zapytań prowadzi obecnie do kliknięcia zewnętrznego adresu. Dla wydawców i twórców treści oznacza to utratę ruchu o katastrofalnych rozmiarach. Analiza przeprowadzona przez Similarweb wykazała, że ruch organiczny na stronach informacyjnych spadł z ponad 2,3 miliarda wizyt miesięcznie do poniżej 1,7 miliarda w ciągu jednego roku – co oznacza stratę około 600 milionów wizyt miesięcznie, czyli około 26% poprzedniego wolumenu ruchu. Poszczególni wydawcy podają jeszcze bardziej dramatyczne dane: jeden z głównych amerykańskich magazynów lifestylowych odnotował spadek współczynnika klikalności z 5,1% do 0,6%, co w efekcie daje spadek o około 88%.
To nie jest stopniowa, ewolucyjna korekta krajobrazu wyszukiwarek. To rewolucja. Implikacja dla samego Google jest dwulicowa i paradoksalna: Z jednej strony integracja AI Overview prowadzi do mniejszej liczby kliknięć, podczas gdy z drugiej strony Google opiera się presji, aby wdrożyć tę funkcję, argumentując, że każde kliknięcie, które nie zostanie utracone na rzecz ChatGPT, jest cenne — a zatem nawet zmniejszona liczba kliknięć jest lepsza niż żadne kliknięcie. Wewnętrzna notatka Google, o której doniesiono, zwięźle wyraziła to napięcie poznawcze: Google wolałoby stracić spadające wyszukiwania na rzecz Gemini (zastrzeżonego modelu AI Google) niż na rzecz ChatGPT, ponieważ zachowałoby to możliwość zatrzymania użytkowników w ekosystemie Google. Innymi słowy, Google ryzykuje średnioterminowym skurczeniem się wolumenu ruchu podlegającego monetyzacji, aby utrzymać swoją pozycję rynkową względem zdecentralizowanych konkurentów AI w perspektywie długoterminowej.
Ta strategia odzwierciedla fundamentalny dylemat kapitalizmu platformowego: gdy tradycyjna miara wartości – generowanie kliknięć – znajduje się pod presją, konieczne jest opracowanie alternatywnych ścieżek tworzenia wartości. Google eksperymentuje z tym, opracowując tryb AI, bardziej kompleksowe, konwersacyjne środowisko wyszukiwania, zaprojektowane w celu generowania długoterminowego zaangażowania użytkowników. Model biznesowy ewoluuje od modeli transakcyjnych („użytkownik klika reklamę”) do modeli potencjalnie bardziej zintegrowanych, a nawet opartych na subskrypcji. Prognoza przychodów z marketingu w wyszukiwarkach na rok 2025 na poziomie około 190,6 mld USD – wzrost o około 7% w porównaniu z rokiem 2024 – utrzymuje nominalistyczny optymizm w świetle tych trendów. Jednak wzrost ten prawdopodobnie zostanie osiągnięty głównie poprzez podwyżki cen (wzrost kosztu kliknięcia), a nie poprzez zwiększenie wolumenu.
Filozofia produktu Robby’ego Steina: od Snapchata do wyszukiwania opartego na sztucznej inteligencji
Na tym tle biografia i wyraźna strategia produktowa Robby'ego Steina, wiceprezesa ds. produktu w Google Search, nabierają szczególnego znaczenia. Stein stał się kluczową postacią w dążeniu Google do zorganizowania transformacji wyszukiwania. Jego ścieżka kariery jest odkrywcza dla zrozumienia strategicznej logiki leżącej u podstaw planów dotyczących sztucznej inteligencji.
Stein jest znany z rozwoju Instagram Stories. Ta decyzja produktowa stanowi wnikliwe studium przypadku, zarówno rozwoju produktu w warunkach skrajnej niepewności, jak i tego, jak ugruntowane platformy mogą neutralizować konkurencję poprzez „wystarczająco dobre” kopie. W 2013 roku Snapchat wprowadził „Stories”, innowacyjną funkcję ulotnych, automatycznie znikających treści w mediach społecznościowych. Innowacja była technicznie elegancka i przełomowa pod względem zachowań użytkowników, ustanawiając nową kategorię interakcji w mediach społecznościowych. Snapchat osiągnął około 150 milionów aktywnych użytkowników dziennie w 2016 roku. Instagram, będący już częścią ekosystemu Facebooka i szczycący się ponad 500 milionami aktywnych użytkowników dziennie, skopiował tę funkcję 2 sierpnia 2016 roku.
Konsekwencje były druzgocące dla Snapchata. Instagram Stories dotarło do ponad 150 milionów użytkowników dziennie w ciągu sześciu miesięcy. Liczba wyświetleń Snapchat Stories spadła o 15 do 40 procent. W ciągu roku Snapchat został funkcjonalnie zneutralizowany w tym segmencie. Tym, co odróżniało Instagram Stories od Snapchat Stories, nie była przewaga techniczna, ale operacyjna: Instagram zintegrował tę funkcję z już dominującym ekosystemem, oferował lepsze analizy dla twórców, umożliwiał tagowanie marek i użytkowników (czego Snapchat nie oferował) i działał w oparciu o istniejącą infrastrukturę techniczną. Był to podręcznikowy przykład ekonomii platformy: skala, możliwości integracji i doskonałość operacyjna przewyższają innowacyjność na rozdrobnionych rynkach.
W ostatnich wywiadach Stein opisuje swoją filozofię rozwoju produktu jako opartą na trzech podstawowych elementach: Po pierwsze, „nieustannym doskonaleniu” – obsesyjnym skupieniu na iteracyjnej optymalizacji. Po drugie, dogłębnym zrozumieniu zachowań użytkowników w kontekście złożonych systemów technologicznych. Po trzecie, gotowości do podejmowania decyzji sprzecznych z intuicją, gdy wymagają tego dane.
Ta filozofia znajduje odzwierciedlenie w strategii Google dotyczącej sztucznej inteligencji. Stein publicznie oświadczył, że Google zidentyfikowało trzy, niczym pigułki, komponenty „wyszukiwania nowej generacji”: Przeglądy AI (szybkie, generowane przez AI streszczenia), wyszukiwanie multimodalne (obrazy, wideo, Lens) oraz Tryb AI (wyszukiwanie oparte na konwersacji i naprzemiennym wykonywaniu poleceń, wcześniej nieznane Google). Te trzy elementy mają się „połączyć”, aby stworzyć płynne i bardziej kompleksowe wyszukiwanie.
Szybkość wdrożenia jest imponująca. Od koncepcji do premiery AI Mode minął około roku, co jest wyjątkowo szybkim czasem dla firmy tej wielkości. To odzwierciedla, jak nowi liderzy produktowi w Google – kierując się wyraźnie zasadami Steina – przełamują dawną, organizacyjną powolność.
Filozofia Steina zawiera jednak również pewną strukturalną słabość: implikuje ona rozumienie „nieustannego doskonalenia” jako procesu skoncentrowanego na samym produkcie, a nie na jego ekosystemowych i dystrybucyjnych efektach. Z perspektywy czysto zorientowanej na użytkownika, agresywne analizy AI mogą oznaczać „lepszy” dostęp do informacji. Jednak z perspektywy wydawców i szerszego ekosystemu internetowego, który opiera się na generowaniu kliknięć, stanowią one destrukcyjną interwencję. Stwarza to dylemat: menedżer produktu dążący do maksymalnego entuzjazmu użytkowników może jednocześnie podważyć model biznesowy firmy, ponieważ doświadczenie użytkownika i realizacja komercyjna nie są spójne.
Rozproszenie akademickie: trzy filary fragmentarycznej transformacji
W ostatnich wywiadach Stein przedstawił ramy koncepcyjne dla transformacji w obszarze wyszukiwania: trzy nierównoważne filary. Ta kategoryzacja jest ważniejsza, niż się początkowo wydaje, ponieważ ujawnia, jak Google wewnętrznie rozumie fragmentację swojej strategii wyszukiwania.
Pierwszym filarem są Przeglądy AI. Są to generowane przez sztuczną inteligencję podsumowania informacji prezentowanych na stronie wyników wyszukiwania. Działają one w oparciu o interpretację zapytania przez specjalistyczny model Gemini (zastrzeżony przez Google model języka dużego), który realizuje strategię wyszukiwania (tzw. „query fanout”), w ramach której model automatycznie formułuje i wykonuje kilkadziesiąt zapytań pomocniczych w celu zebrania kontekstu, a następnie generuje ustrukturyzowaną odpowiedź. Przeglądy AI są ukierunkowane na zapytania informacyjne – „temperatura wrzącej wody”, „najlepsze restauracje w Berlinie”, „jak działa Bitcoin”. Nie nadają się one do zapytań nawigacyjnych (gdy użytkownik szuka konkretnego miejsca docelowego). Nie są również idealne do zapytań komercyjnych o najwyższym priorytecie (zamiar zakupu), ponieważ tradycyjne formaty reklam i oferty produktów nadal sprawdzają się w tych obszarach lepiej.
Drugim filarem jest wyszukiwanie multimodalne, głównie za pośrednictwem Google Lens. Umożliwia ono użytkownikom wyszukiwanie za pomocą danych wizualnych – robiąc zdjęcie obiektu, a następnie pytając Google, co to za obiekt, jak go naprawić i gdzie go kupić. Tempo wzrostu Google Lens jest imponujące: 15% wzrost rok do roku, osiągając około 20 miliardów zapytań miesięcznie. To ważny filar, ponieważ pokazuje, że wyszukiwarka Google nie opiera się wyłącznie na tekście – medium interakcji ulega dywersyfikacji.
Trzecim filarem jest tryb AI. To najnowszy i najbardziej ambitny pod względem koncepcyjnym eksperyment. Podczas gdy przeglądy AI koncentrują się na odpowiedziach punkt-punkt (pytanie → odpowiedź → koniec), tryb AI działa poprzez długoterminową interakcję konwersacyjną. Użytkownik może zadawać złożone, wieloetapowe pytania („Szukam restauracji w Berlinie, mój znajomy ma alergię na orzeszki ziemne, chciałbym mieć stolik na zewnątrz, budżet około 60 euro na osobę”), a tryb AI udzielałby rekomendacji krok po kroku, wyjaśniał je i udoskonalał, a także przedstawiał alternatywy. Jest to mniej wyszukiwarka, a bardziej interaktywny agent informacyjny.
To rozróżnienie strategii wyszukiwania na trzy nie do końca równoważne tryby odzwierciedla metastrategię elastyczności i opcjonalności. Google powstrzymuje się od definiowania monolitycznego „nowego wyszukiwania”, zamiast tego prezentując portfolio trybów wyszukiwania, które odpowiadają różnym typom zapytań i preferencjom użytkowników. Jest to strategicznie inteligentne, ponieważ pozwala na jednoczesne podejmowanie wielu decyzji, bez angażowania się w pojedynczą innowację, która może nie odnieść uniwersalnego sukcesu.
Jednak ta strategia portfelowa ujawnia również głęboką niepewność. Monetyzacja rozproszonego wyszukiwania jest trudniejsza niż monetyzacja ujednoliconej architektury. Wybierając między różnymi trybami, użytkownicy tworzą niestabilność oczekiwań, co prowadzi do odejścia. A jeśli Google oferuje różne tryby wewnętrznie, jeden z nich może kanibalizować inny.
Wsparcie B2B i SaaS dla SEO i GEO (wyszukiwanie AI) w jednym: kompleksowe rozwiązanie dla firm B2B
Wsparcie B2B i SaaS dla SEO i GEO (wyszukiwanie AI) w jednym: kompleksowe rozwiązanie dla firm B2B — Zdjęcie: Xpert.Digital
Wyszukiwanie oparte na sztucznej inteligencji zmienia wszystko: w jaki sposób to rozwiązanie SaaS na zawsze zrewolucjonizuje rankingi B2B.
Cyfrowy krajobraz firm B2B ulega dynamicznym zmianom. Kierowane sztuczną inteligencją, zasady widoczności online ulegają przedefiniowaniu. Dla firm zawsze wyzwaniem było nie tylko bycie widocznym w cyfrowym społeczeństwie, ale także bycie istotnym dla właściwych decydentów. Tradycyjne strategie SEO i zarządzanie lokalną obecnością (geomarketing) są złożone, czasochłonne i często stanowią walkę z ciągle zmieniającymi się algorytmami i silną konkurencją.
A co, gdyby istniało rozwiązanie, które nie tylko uprościłoby ten proces, ale także uczyniło go inteligentniejszym, bardziej przewidywalnym i znacznie skuteczniejszym? Właśnie tutaj pojawia się połączenie specjalistycznego wsparcia B2B z wydajną platformą SaaS (oprogramowanie jako usługa), zaprojektowaną specjalnie z myślą o potrzebach SEO i GEO w dobie wyszukiwania opartego na sztucznej inteligencji.
Ta nowa generacja narzędzi nie opiera się już wyłącznie na ręcznej analizie słów kluczowych i strategiach pozyskiwania linków zwrotnych. Zamiast tego wykorzystuje sztuczną inteligencję, aby precyzyjniej rozumieć intencje wyszukiwania, automatycznie optymalizować lokalne czynniki rankingowe i przeprowadzać analizę konkurencji w czasie rzeczywistym. Rezultatem jest proaktywna strategia oparta na danych, która daje firmom B2B zdecydowaną przewagę: są one nie tylko znajdowane, ale także postrzegane jako autorytet w swojej niszy i lokalizacji.
Oto symbioza wsparcia B2B i technologii SaaS opartej na sztucznej inteligencji, która zmienia oblicze SEO i marketingu geograficznego, i jak Twoja firma może na tym skorzystać, aby rozwijać się w zrównoważony sposób w przestrzeni cyfrowej.
Więcej na ten temat tutaj:
Jak architektura Gemini zmienia definicję wyszukiwania — zwycięzcy, przegrani i modele biznesowe
Komora echa modelu Gemini: architektura techniczna i jej implikacje biznesowe
Podstawowa architektura techniczna Gemini, modelu sztucznej inteligencji (AI), który napędza tryby AI, przeglądy AI i wyszukiwanie multimodalne, jest istotna dla zrozumienia, dlaczego Google napędza tę transformację. W przeciwieństwie do wielu modeli językowych, Gemini został zaprojektowany od podstaw jako multimodalny. Oznacza to, że model integruje tekst, obrazy, dźwięk i wideo w jedną sieć neuronową, zamiast dodawać te modalności później. To nadaje Gemini strukturalną elegancję z teoretycznego punktu widzenia.
Z technicznego punktu widzenia Gemini wykorzystuje tzw. architekturę transformatorowo-dekodującą, zoptymalizowaną pod kątem wydajności. Model ten działa na jednostkach przetwarzania tensorowego (TPU) Google Cloud, co daje Google przewagę w zakresie szybkości wnioskowania – Google może uruchamiać modele sztucznej inteligencji szybciej i taniej niż konkurencja w oparciu o infrastruktury chmurowe ogólnego przeznaczenia. Gemini potrafi przeprowadzać rozumowanie łańcuchowe – potrafi rozłożyć złożone problemy na kilka etapów koncepcyjnych przed sformułowaniem odpowiedzi. Umożliwia to tworzenie głębszych struktur logicznych niż generowanie tokenów metodą płytkich tokenów we wcześniejszych modelach LLM.
Co najważniejsze, Gemini jest zintegrowane z zastrzeżonymi repozytoriami danych Google. Wykres Zakupów Google zawiera około 50 miliardów produktów, aktualizowanych 2 miliardy razy na godzinę za pośrednictwem kanałów sprzedawców. Google ma dostęp do 250 milionów lokalizacji i informacji mapowych. Google ma dostęp do danych finansowych, informacji giełdowych w czasie rzeczywistym oraz do całej sieci jako źródła kontekstu. Te repozytoria danych nie są publicznie dostępne – są zastrzeżonymi zasobami, do których dostęp ma tylko Google. Daje to Gemini (a tym samym trybowi AI, przeglądom AI itp.) fundamentalną przewagę, której brakuje konkurentom, takim jak ChatGPT czy Perplexity. OpenAI musi opierać się na danych publicznie dostępnych i pobieranych za pośrednictwem interfejsów API. Perplexity musi korzystać ze scrapowania stron internetowych. Google ma już te dane wewnętrznie.
Ta architektura ilustruje, dlaczego integrację sztucznej inteligencji Google należy postrzegać jako strategicznie konieczną, a nie jedynie opcjonalną. Infrastruktura już istnieje. Dane już istnieją. Moc obliczeniowa jest już dostępna. Ekonomicznie racjonalnym rozwiązaniem jest wykorzystanie tych zasobów. Pytanie tylko, jak agresywnie należy dążyć do monetyzacji, biorąc pod uwagę skutki uboczne dla tradycyjnego modelu biznesowego.
Problem zakłopotania: konkurencja w hałasie
Często pomijanym aspektem dyskusji o wyszukiwaniu opartym na sztucznej inteligencji (AI) jest rola Perplexity AI. Założony w 2022 roku przez Aravinda Srinivasa, byłego stażystę Google, Perplexity wyraźnie pozycjonuje się jako natywny interfejs wyszukiwania oparty na sztucznej inteligencji. W sierpniu 2024 roku Perplexity miał około 15 milionów aktywnych użytkowników miesięcznie. Firma prognozowała przychody na poziomie około 40 milionów dolarów na 2024 rok. OpenAI prognozowało przychody na poziomie około 11,6 miliarda dolarów na 2025 rok dzięki swoim ofertom API i komercyjnemu wykorzystaniu wyszukiwarki ChatGPT.
Jednak zagregowane dane użytkowników ujawniają zaskakujący obraz: Perplexity i ChatGPT Search łącznie przetwarzają obecnie około 37,5 miliona zapytań dziennie dla ChatGPT, plus wielokrotność tego dla Perplexity (ostrożnie szacowaną na około 10-20 milionów), co daje łącznie około 47,5-57,5 miliona zapytań wyszukiwania AI dziennie. Tymczasem Google przetwarza około 14 miliardów zapytań wyszukiwania dziennie. Oznacza to, że Google przetwarza około 250-370 razy więcej zapytań niż Perplexity i ChatGPT razem wzięte. Zagregowany ruch wyszukiwania AI stanowi około 0,1 do 0,25 procent całkowitego globalnego ruchu w sieci. To szum, a nie sygnał zmiany paradygmatu.
Jest to istotne, ponieważ pokazuje, że pomimo ogromnego finansowania venture capital dla startupów zajmujących się wyszukiwaniem w oparciu o sztuczną inteligencję, pomimo medialnego szumu wokół „rewolucji wyszukiwania” i pomimo rzeczywistych ulepszeń technicznych w Perplexity i ChatGPT Search, klasyczna wyszukiwarka Google pozostaje dominującym źródłem informacji. Nie oznacza to, że Perplexity i ChatGPT Search są nieistotne – sygnalizują one zmianę oczekiwań użytkowników. Nie oznacza to jednak, że pozycja rynkowa Google jest zagrożona.
Jednak te dane mogą być mylące. Chociaż Perplexity stanowi zaledwie 0,01% dziennego wolumenu wyszukiwań Google na całym świecie, jego penetracja wśród określonych grup użytkowników (młodych, biegłych w technologii, pracowników intensywnie korzystających z informacji) jest znacznie wyższa. Analityk venture capital mógłby argumentować, że Perplexity nie konkuruje z Google, a raczej kreuje typ użytkownika, który za dziesięć lat będzie dominującą grupą użytkowników. To klasyczny argument za rewolucją. Jest to jednak spekulacja; obecne dane sugerują współistnienie modeli wyszukiwania, a nie proces substytucji.
Upadek wydawnictwa: zniszczenie gospodarki czy restrukturyzacja modelu biznesowego?
Aby przeprowadzić pełną analizę ekonomiczną, należy zbadać destrukcyjny proces, jaki integracja Google AI wywiera na wydawców. To zjawisko rzeczywiste i bezpośrednie, a nie jedynie prognoza. Wydawcy zgłaszają spadek ruchu na poziomie 70–80%. Jeden z dużych amerykańskich magazynów informacyjnych stracił od 27 do 38 procent ruchu w latach 2024–2025. Specjalistyczny blog niszowy o remontach domów stracił około 86 procent przychodów, z około 7000–10 000 dolarów miesięcznie do około 1500 dolarów miesięcznie.
Konsekwencje ekonomiczne są dramatyczne. Branża informacyjna w USA straciła około 600 milionów wizyt miesięcznie w niecały rok – spadek o około 26%. W branży opartej na przychodach z reklam przekłada się to bezpośrednio na mniejszą liczbę wyświetleń, mniejszą liczbę kliknięć reklam, niższe stawki CPM (z powodu konkurencji o mniejszą liczbę wyświetleń) i spadek ogólnych przychodów.
To klasyczny przypadek ekonomicznej eksternalizacji negatywnych efektów. Google internalizuje zyski z poprawy doświadczenia użytkownika (użytkownicy nie muszą klikać, otrzymują natychmiastowe odpowiedzi), ale przerzuca koszty na wydawców, którzy nie generują już ruchu. Ta asymetryczna dystrybucja kosztów jest strukturalną cechą gospodarek platformowych, w których operatorzy platform mają siłę przetargową, aby przesuwać centra kosztów.
Niektórzy wydawcy zaczynają eksperymentować z modelami uwzględniającymi tę nową rzeczywistość: zamiast optymalizować ruch pod kątem wielkości ruchu, optymalizują go pod kątem widocznych wzmianek o marce w wynikach AI. Jeśli Google generuje odpowiedź na zapytanie „najlepsze restauracje w Berlinie”, wzmianka o konkretnej restauracji może być dla niej bardziej wartościowa niż kliknięcie, ponieważ wzmacnia rozpoznawalność marki i tworzy punkt wejścia „top-of-mind”. Użytkownicy, którzy czytają odpowiedzi AI, w których wspomniano o konkretnej restauracji, mogą być bardziej skłonni do odwiedzenia jej później, nawet jeśli nie klikną od razu.
Nie jest to pocieszeniem dla wydawców, którzy polegają na natychmiastowej monetyzacji ruchu. Wskazuje to jednak na możliwą restrukturyzację modeli biznesowych wydawców: odejście od modelu „wolumen ruchu × CPM reklamy” na rzecz modelu „autorytet marki × subskrypcja treści premium” lub „autorytet marki × wartościowe relacje partnerskie”.
Nierozstrzygnięta kwestia rozliczeń: Kto płaci za dane szkoleniowe?
Subtelnie istotną, ale systematycznie pomijaną kwestią jest kwestia atrybucji danych szkoleniowych. Modele sztucznej inteligencji (AI), które napędzają funkcje AI Overviews, AI Mode i ChatGPT Search, zostały wytrenowane na danych internetowych, które w 99% zostały wygenerowane przez podmioty niezwiązane ze sztuczną inteligencją. Wydawcy płacą dziennikarzom za pisanie artykułów. Agencje prasowe płacą korespondentom za gromadzenie faktów. Naukowcy poświęcają czas na badania, aby publikować te wyniki. Wszystkie te podmioty finansują swoją działalność za pośrednictwem modeli biznesowych, zazwyczaj opartych na generowaniu ruchu lub bezpośrednich subskrypcjach. Jednak tworzenie treści internetowych jest uważane za „dobro publiczne”, jeśli nie jest wynagradzane poprzez bezpośrednią monetyzację.
Proces szkolenia sztucznej inteligencji nigdy nie wynagradzał tych twórców treści. OpenAI wytrenował GPT-4 na miliardach artykułów bez wynagradzania wydawców. Google wytrenował Gemini na treściach internetowych bez wynagrodzenia. Perplexity trenuje swoje modele w podobny sposób. Jest to technicznie i prawnie możliwe, ponieważ obejmuje „dozwolony użytek” (zgodnie z amerykańskim prawem autorskim), ale jest asymetryczne etycznie i ekonomicznie: twórcy treści finansują szkolenie sztucznej inteligencji, ale nie otrzymują bezpośredniego wynagrodzenia. Zamiast tego ponoszą straty z powodu zmniejszonego ruchu.
Może to okazać się długoterminowym ryzykiem dla branży sztucznej inteligencji (AI). Jeśli wydawcy nie otrzymają wynagrodzenia za swoje dane treningowe, będą mieli mniejszą motywację do tworzenia wysokiej jakości treści. Jakość internetu spadnie. To z kolei stworzy później problem dla modeli AI trenowanych na danych internetowych – będą one trenować na treściach niższej jakości. To klasyczny przykład „tragedii wspólnego pastwiska”. Niektórzy gracze (zwłaszcza OpenAI z jego zasobami komercyjnymi i Google z jego wewnętrzną integracją z internetem) już zaczęli eksperymentować z licencjonowanymi źródłami danych (np. OpenAI współpracuje z wydawcami wiadomości w zakresie kanałów treści). Może to doprowadzić do powstania normy, w której szkolenie AI będzie częściowo licencjonowane. Na razie jednak jest to wyjątek, a nie reguła.
Destabilizacja łańcucha wartości: Od reklam do… czego?
Podstawowym problemem ekonomicznym, który powstaje w wyniku integracji sztucznej inteligencji Google, jest kwestia alternatywnych ścieżek monetyzacji, gdy tradycyjna reklama staje się mniej skuteczna. Klasyczny łańcuch wartości Google wyglądał następująco: użytkownik formułuje zapytanie → Google prezentuje organiczne wyniki + reklamy → użytkownik klika → wydawca lub reklamodawca otrzymuje wartość ruchu lub konwersję. Ten łańcuch wartości stanowił podstawę gospodarki cyfrowej przez 25 lat.
Przeglądy AI destabilizują ten łańcuch wartości, eliminując etap „kliknięcia”. Google musi stworzyć nowe łańcuchy wartości. Testowanych jest kilka podejść:
Po pierwsze: integracja reklam bezpośrednio z funkcjami AI Overviews i AI Mode. Jest to trudne, ponieważ użytkownicy jednoznacznie interpretują te generowane przez AI odpowiedzi jako „niereklamy”. Integracja reklam z odpowiedziami AI grozi nadszarpnięciem zaufania użytkowników. Google jest w tej kwestii ostrożne.
Po drugie: Monetyzacja poprzez subskrypcję. Google eksperymentuje z wersjami premium trybu AI, które mogą być ostatecznie płatne. Oznaczałoby to, że wyszukiwanie konwersacyjne oparte na sztucznej inteligencji byłoby funkcją premium, a standardowe wyszukiwanie pozostałoby darmowe. To model freemium, podobny do Spotify czy Adobe. Wyzwaniem jest utrzymanie odpowiednio wysokiego wskaźnika penetracji dla wersji płatnych, aby zrekompensować utratę przychodów z reklam.
Po trzecie: Monetyzacja za pośrednictwem modeli biznesowych, które nie opierają się na monetyzacji indywidualnych użytkowników. Na przykład Google mógłby zaoferować „API dla Enterprise AI Search”, w ramach którego klienci korporacyjni mogliby wypożyczać określone modele Gemini na potrzeby wyszukiwania wewnętrznego. To przeniosłoby model biznesowy na model B2B, podobny do Google Cloud.
Po czwarte: Monetyzacja poprzez monetyzację danych. Kiedy Google przeprowadza miliony interakcji konwersacyjnych z użytkownikami za pomocą sztucznej inteligencji, generuje ogromne ilości danych o intencjach użytkowników. Dane te są niezwykle cenne dla targetowania reklam. Google może wykorzystać je do poprawy targetowania reklamodawców, nawet jeśli współczynniki klikalności spadną. To forma pośredniej monetyzacji.
Żadna z tych alternatyw nie jest oczywiście tak opłacalna, jak klasyczna formuła „kliknięcie × CPM”. Jednak razem wzięte, mogą potencjalnie stworzyć nowy ekosystem tworzenia wartości.
Strategiczny dylemat nieustannego doskonalenia
Filozofia Steina dotycząca „nieustannego doskonalenia” napotyka na fundamentalną strukturę konfliktu: proces ulepszania produktu z perspektywy użytkownika bezpośrednio koliduje ze stabilnością modelu biznesowego. Lepszy produkt (przeglądy AI zapewniające natychmiastowe odpowiedzi) szkodzi modelowi biznesowemu (spadek liczby kliknięć w reklamy). To nie jest stopniowy, umiarkowany dylemat – to dylemat radykalny pod względem strukturalnym.
Problem jest jeszcze bardziej złożony, ponieważ dotyczy kwestii czasu. Teoretycznie Google mogłoby spowolnić lub wstrzymać wdrażanie funkcji AI Overviews. Ochroniłoby to przychody z reklam w krótkiej perspektywie. Oznaczałoby to jednak również, że Perplexity i ChatGPT Search stałyby się technicznie lepsze, a użytkownicy zaczęliby migrować na te platformy. Innymi słowy, nie podejmując żadnych działań, Google ryzykuje utratę udziałów w rynku na rzecz konkurentów, którzy priorytetowo traktują doświadczenie użytkownika. To prowadzi do dylematu więźnia: wszyscy gracze są zmuszeni do maksymalizacji doświadczenia użytkownika, nawet jeśli łącznie prowadzi to do kryzysu monetyzacji.
Innym sposobem zrozumienia tego jest: integracja sztucznej inteligencji to nie tylko decyzja dotycząca funkcjonalności; to strategia egzystencjalna w walce ze zdecentralizowaną konkurencją. Google musi wbudować możliwości sztucznej inteligencji, inaczej wyszukiwanie przeniesie się do ChatGPT. Jednak ta integracja stwarza natychmiastowe problemy z modelem biznesowym. Google akceptuje tę krótkoterminową ofiarę jako konieczną dla swojej długoterminowej pozycji rynkowej.
Paradoks wzrostu przy spadających mnożnikach przychodów
Ostatnia ważna kwestia: liczba wyszukiwań w Google stale rośnie. Roczna stopa wzrostu zapytań wyniosła około 4,7% w 2025 roku, w porównaniu z 4,1% w 2024 roku. Oznacza to, że bezwzględna liczba wyszukiwań rośnie. Jednak wzrost ten nastąpił wraz ze spadkiem mnożników monetyzacji. Zapytanie w Google jest mniej warte niż rok temu, ponieważ prawdopodobieństwo kliknięcia jest niższe.
Jeśli ten trend się utrzyma – wzrost wolumenu × spadający wskaźnik monetyzacji – doprowadzi to do gospodarki „ucztowania na ruinach”, w której Google generuje większy ruch, ale czerpie z niego mniejsze przychody. Choć jest to korzystne dla użytkownika (więcej wyszukiwań, lepsza jakość), jest niekorzystne dla Google (mniejsze przychody z wyszukiwania, potencjalnie spadające przychody całkowite).
Prognoza przychodów z marketingu w wyszukiwarkach na poziomie 190,6 mld USD do 2025 r. (w porównaniu do 178,2 mld USD w 2024 r.) sugeruje, że Google rekompensuje straty wolumenu poprzez agresywne podwyżki CPM (zmuszając reklamodawców do płacenia wyższych cen). To gra krótkoterminowa – reklamodawcy ostatecznie przeniosą się do alternatywnych kanałów (np. bezpośrednio do sprzedawców detalicznych, Amazon Ads, TikTok Ads), jeśli efektywność Google będzie nadal spadać. Obecna „prognoza” może być prognozą opartą na piasku, a nie na stabilnym gruncie.
Innowacje pod presją i w scenariuszu okolicznościowym
Przekształcenie Google z klasycznej wyszukiwarki w interfejs wyszukiwania oparty na sztucznej inteligencji nie jest dobrowolną zmianą strategii; jest to wymuszona adaptacja do wielu równoczesnych zakłóceń: ChatGPT/OpenAI jako nowej konkurencji, Perplexity AI jako nowego kanału wyszukiwania, wewnętrznej presji technologicznej (Gemini i inne modele sztucznej inteligencji są już gotowe; nieracjonalne byłoby z nich nie korzystać) oraz zmiany oczekiwań użytkowników (użytkownicy oczekują możliwości sztucznej inteligencji we wszystkich produktach cyfrowych).
Filozofia rozwoju produktu Robby'ego Steina – nieustanne doskonalenie, obsesyjna optymalizacja doświadczeń użytkownika i gotowość do konwersji – sprawdza się, gdy poprawa jakości obsługi użytkowników idzie w parze ze stabilnością modelu biznesowego. Jednak w kontekście rewolucji w dziedzinie sztucznej inteligencji (AI) cele te są ze sobą sprzeczne. Podejście Steina pozwala Google na agresywne wdrażanie innowacji w dziedzinie AI, ale nie zapewnia natychmiastowych rozwiązań problemów z modelem biznesowym, które te innowacje generują.
Długoterminowy scenariusz jest niejasny. Istnieje kilka możliwości: (1) Google stabilizuje się na nowym fundamencie ekonomicznym, gdzie wyszukiwanie oparte na sztucznej inteligencji, subskrypcje premium, usługi B2B i ulepszone targetowanie reklamodawców łączą się, tworząc nowe portfolio przychodów. (2) Google stopniowo traci udziały w rynku na rzecz Perplexity, ChatGPT Search i innych zdecentralizowanych modeli, ponieważ konkurenci ci oferują lepsze doświadczenia użytkowników i nie są ograniczeni modelami biznesowymi, które priorytetowo traktują monetyzację. (3) Kryzys regulacyjny uniemożliwia Google wykorzystanie przewagi w zakresie danych, a krajobraz konkurencyjny pozostaje rozdrobniony.
Obecnie scenariusz 1 jest najbardziej prawdopodobny, ponieważ strukturalna przewaga Google (baza danych, baza użytkowników, infrastruktura) jest nadal znacząca. Niepewność jest jednak realna, a transformacja ma charakter trwały i strukturalny, a nie jedynie stopniowy. W każdym razie jedno jest jasne: era monetyzacji wyszukiwania opartej wyłącznie na kliknięciach dobiega końca. Pojawia się coś nowego, ale jego forma jeszcze się nie ustabilizowała.
Twój globalny partner w zakresie marketingu i rozwoju biznesu
☑️Naszym językiem biznesowym jest angielski lub niemiecki
☑️ NOWOŚĆ: Korespondencja w Twoim języku narodowym!
Chętnie będę służyć Tobie i mojemu zespołowi jako osobisty doradca.
Możesz się ze mną skontaktować wypełniając formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) . Mój adres e-mail to: wolfenstein ∂ xpert.digital
Nie mogę się doczekać naszego wspólnego projektu.
☑️ Wsparcie MŚP w zakresie strategii, doradztwa, planowania i wdrażania
☑️ Stworzenie lub dostosowanie strategii cyfrowej i cyfryzacji
☑️Rozbudowa i optymalizacja procesów sprzedaży międzynarodowej
☑️ Globalne i cyfrowe platformy handlowe B2B
☑️ Pionierski rozwój biznesu / marketing / PR / targi
Nasze globalne doświadczenie branżowe i ekonomiczne w zakresie rozwoju biznesu, sprzedaży i marketingu
Nasze globalne doświadczenie branżowe i biznesowe w zakresie rozwoju biznesu, sprzedaży i marketingu - Zdjęcie: Xpert.Digital
Skupienie się na branży: B2B, digitalizacja (od AI do XR), inżynieria mechaniczna, logistyka, odnawialne źródła energii i przemysł
Więcej na ten temat tutaj:
Centrum tematyczne z przemyśleniami i wiedzą specjalistyczną:
- Platforma wiedzy na temat globalnej i regionalnej gospodarki, innowacji i trendów branżowych
- Zbieranie analiz, impulsów i informacji ogólnych z obszarów, na których się skupiamy
- Miejsce, w którym można zdobyć wiedzę i informacje na temat bieżących wydarzeń w biznesie i technologii
- Centrum tematyczne dla firm, które chcą dowiedzieć się więcej o rynkach, cyfryzacji i innowacjach branżowych
🎯🎯🎯 Skorzystaj z bogatej, pięciokrotnej wiedzy eksperckiej Xpert.Digital w ramach kompleksowego pakietu usług | BD, R&D, XR, PR i optymalizacja widoczności cyfrowej
Skorzystaj z bogatej, pięciokrotnej wiedzy specjalistycznej Xpert.Digital w ramach kompleksowego pakietu usług | Badania i rozwój, XR, PR i optymalizacja widoczności cyfrowej — Zdjęcie: Xpert.Digital
Xpert.Digital posiada dogłębną wiedzę na temat różnych branż. Dzięki temu możemy opracowywać strategie „szyte na miarę”, które są dokładnie dopasowane do wymagań i wyzwań konkretnego segmentu rynku. Dzięki ciągłej analizie trendów rynkowych i śledzeniu rozwoju branży możemy działać dalekowzrocznie i oferować innowacyjne rozwiązania. Dzięki połączeniu doświadczenia i wiedzy generujemy wartość dodaną i dajemy naszym klientom zdecydowaną przewagę konkurencyjną.
Więcej na ten temat tutaj:

