Website -pictogram Xpert.Digital

AI-industrie | Verborgen bezuinigingsmaatregelen en kostenbesparende maatregelen in generatieve AI – inclusief het terugdringen van het aantal woorden: minder is goedkoper

AI-industrie | Verborgen bezuinigingsmaatregelen en kostenbesparende maatregelen in generatieve AI – inclusief het terugdringen van het aantal woorden: minder is goedkoper

AI-industrie | Verborgen bezuinigingsmaatregelen en kostenbesparende maatregelen in generatieve AI – inclusief het terugdringen van het aantal woorden: minder is goedkoper – Afbeelding: Xpert.Digital

De verborgen kostencrisis bij aanbieders van generatieve kunstmatige intelligentie

De grote AI-illusie: miljarden aan verliezen en bezuinigingsmaatregelen – wat de techgiganten voor u verbergen

Kunstmatige intelligentie (AI) beleeft een ongekende bloei, maar achter de glanzende façade van de technologische revolutie gaan enorme financiële uitdagingen schuil. Wat gebruikers als kleine technische aanpassingen beschouwen, blijken bij nadere beschouwing wanhopige pogingen van grote AI-leveranciers om hun exploderende kosten onder controle te krijgen. Google en OpenAI voerden in september 2024 vrijwel gelijktijdig veranderingen door. Op het eerste gezicht lijken deze veranderingen los van elkaar te staan, maar ze onthullen een groter probleem waarmee de hele sector kampt: de monetisering van AI-diensten loopt dramatisch achter op de enorme investeringen en operationele kosten.

Generatieve AI (Generative Artificial Intelligence) is een tak van kunstmatige intelligentie die gespecialiseerd is in het genereren van nieuwe content in plaats van alleen het analyseren of classificeren van bestaande data.

Deze ontwikkeling is bijzonder opmerkelijk omdat het aantoont hoe zelfs miljardenbedrijven in de techsector lijden onder de financiële druk van hun eigen innovatie. Terwijl OpenAI, ondanks een waardering van $ 157 miljard, een verlies van $ 5 miljard voorspelt voor 2024, implementeert Google in stilte maatregelen die de kosten van dataverzameling en -verwerking drastisch verhogen. Deze ogenschijnlijk kleine veranderingen hebben verstrekkende gevolgen voor het gehele digitale landschap en wijzen op een grotere structurele crisis in de AI-industrie.

De stille revolutie van Google

De parameter num=100 uitschakelen

Op 14 september 2024 voerde Google zonder veel publiciteit een van de grootste wijzigingen in zijn zoekinfrastructuur door. De URL-parameter num=100, die decennialang de gelijktijdige weergave van 100 zoekresultaten mogelijk maakte, werd volledig uitgeschakeld. Deze technische innovatie had verstrekkende gevolgen voor de gehele SEO-sector en AI-toepassingen.

Hoewel de parameter een handige functie was voor reguliere gebruikers, was deze van cruciaal belang voor de SEO-branche. Vrijwel alle grote SEO-aanbieders, zoals Ahrefs, Sistrix, SEMrush en gespecialiseerde rankingtools, gebruikten deze parameter voor efficiënte dataverzameling. Met één telefoontje konden ze de volledige top 100-rankings vastleggen, wat zowel kosteneffectiever als sneller was dan het pagina voor pagina ophalen van resultaten.

De deactivering van deze parameter leidde tot een kostenexplosie in de SEO-branche. Rankingtools moeten nu tien afzonderlijke zoekopdrachten uitvoeren om dezelfde hoeveelheid data te verkrijgen als voorheen mogelijk was met één zoekopdracht. Dit betekent een vertienvoudiging van de kosten voor zoekopdrachten en heeft al voor serieuze technische en financiële uitdagingen gezorgd voor verschillende toolleveranciers.

Impact op website-exploitanten

De effecten waren direct zichtbaar in Google Search Console: 87,7 procent van alle onderzochte websites ervoer een drastische daling in gemeten vertoningen. Tegelijkertijd verbeterde, paradoxaal genoeg, de gemiddelde positie van de websites, doordat er minder "laaggeplaatste vertoningen" werden geregistreerd van positie 11 tot en met 100.

Veel uitgevers melden dramatische dalingen in het verkeer. Nieuwssites zoals derwesten.de verloren 51 procent van hun zoekverkeer, express.de 35 procent en focus.de 33 procent. De redenen zijn complex: naast technische veranderingen bij Google spelen ook AI-reviews een rol, waardoor gebruikers minder op externe websites klikken.

Motivatie achter de strategie van Google

De redenen voor Googles besluit zijn complex. Enerzijds vermindert de wijziging de serverbelasting aanzienlijk, omdat er per verzoek minder gegevens verwerkt hoeven te worden. Anderzijds maakt het het voor bots en scrapingdiensten moeilijker om op grote schaal gegevens te verzamelen, wat met name relevant is gezien de toegenomen interesse van AI-bedrijven in de gegevens van Google.

Een ander aspect is de gebruikerservaring: Google wil gebruikers stimuleren om terug te keren naar de traditionele zoekfunctie, waarbij ze door meerdere pagina's klikken en meer tijd in de Google-omgeving doorbrengen. Dit versterkt Google's positie als centraal aanspreekpunt voor informatie en maakt het bedrijf minder afhankelijk van het doorverwijzen van gebruikers naar externe websites.

Geschikt hiervoor:

De wanhopige kostenbeheersing van OpenAI: de dramatische daling van het aantal citaties

Parallel aan de wijziging van Google voerde OpenAI een even belangrijke wijziging door in ChatGPT. Sinds 11 september 2024 toont de AI-chatbot aanzienlijk minder citaten en links naar externe websites. Deze vermindering had een gelijke impact op alle sectoren en contenttypen, ongeacht de kwaliteit van de content of de domeinautoriteit van de bronnen.

De cijfers zijn dramatisch: volgens analyses is het aantal vermeldingen in ChatGPT met maar liefst 90 procent gedaald. Gratis ChatGPT-accounts worden hier vooral door getroffen, terwijl gebruikers van de betaalde versies aanzienlijk minder beperkingen ervaren. Deze ontwikkeling verergert de reeds bestaande discrepantie tussen het verkeer dat websites van Google ontvangen en het aanzienlijk lagere verkeer van ChatGPT.

De explosieve stijging van de kosten voor webzoekfuncties

OpenAI staat onder enorme financiële druk. Het bedrijf verwacht een verlies van ongeveer $ 5 miljard in 2024, terwijl de dagelijkse exploitatie van ChatGPT tot $ 700.000 kost. Het verminderen van webzoekopdrachten en citaties is een voor de hand liggende kostenbesparende maatregel, aangezien elke webzoekopdracht extra rekenkracht en API-aanroepen vereist.

De kosten van de webzoekfunctie van OpenAI zijn aanzienlijk gestegen. Terwijl eerdere modellen gratis toegang tot webzoekopdrachten boden, rekenen nieuwere modellen de volledige prijs voor zoektokens. Een voorbeeld illustreert het kostendilemma: een query met GPT-4o kostte $ 0,13, terwijl dezelfde query met GPT-5, met de uitgebreidere webzoektokens, $ 74 kostte.

Voor de huidige webzoekmodellen rekent OpenAI $ 25 per 1000 weergaven voor gpt-4o en gpt-4.1, terwijl krachtigere modellen zoals de GPT-5 en de o-serie slechts $ 10 per 1000 weergaven kosten. Deze prijs laat duidelijk zien waarom OpenAI drastisch bezuinigt op de levering van webgebaseerde informatie.

Het krimpende aantal woorden: minder is goedkoper

Naast de afname van bronvermeldingen hebben gebruikers een andere, subtielere verandering opgemerkt: de antwoorden van ChatGPT zijn merkbaar korter en minder gedetailleerd geworden. Wat op het eerste gezicht een optimalisatie naar meer beknoptheid lijkt, is in werkelijkheid een andere effectieve kostenbesparende maatregel. Elk gegenereerd woord – of, technisch preciezer, elk token – verbruikt rekenkracht en brengt dus directe kosten met zich mee. Door antwoorden systematisch in te korten, verlaagt OpenAI de operationele kosten per zoekopdracht.

Deze trend is vooral duidelijk zichtbaar in directe vergelijkingen met concurrenten zoals Claude van Anthropic of Gemini van Google. Deze modellen blijven vaak gedetailleerdere, genuanceerdere en diepgaandere antwoorden geven op dezelfde vragen. Terwijl sommige concurrenten nog steeds vertrouwen op de rijkdom aan details als kwaliteitsindicator, lijkt OpenAI het aantal woorden bewust te beperken om de financiële last van zijn immense gebruikersbestand te dragen.

Voor gebruikers betekent dit extra werk. In plaats van een volledig antwoord krijgen ze vaak slechts een oppervlakkige samenvatting en moeten ze zelf de gewenste diepgang aan informatie verkrijgen via gerichte zoekopdrachten (zogenaamde "prompt chaining"). Elk van deze vervolgvragen vertegenwoordigt een nieuwe transactie, die afzonderlijk weliswaar goedkoper is, maar de gebruiker meer tijd en moeite kost. Deze maatregel past naadloos in de strategie om het aantal citaties te verminderen: beide verslechteren de gebruikerservaring en leiden samen tot aanzienlijke kostenbesparingen. Ze zijn bedoeld om het enorme financiële tekort van het bedrijf te compenseren.

Kortere antwoorden, minder bronnen: Merkt u ook hoe ChatGPT stiekem kosten bespaart?

Het verliesgevende bedrijf met premium-abonnementen

Bijzonder problematisch is dat zelfs het duurdere ChatGPT Pro-abonnement, dat $ 200 per maand kost, verliezen genereert doordat gebruikers meer diensten gebruiken dan verwacht. CEO Sam Altman noemde deze situatie "gek" en erkende de uitdagingen om de kosten te dekken.

OpenAI-CEO Sam Altman gaf toe dat het bedrijf momenteel verlies lijdt op het abonnement van $ 200: "Mensen gebruiken het veel meer dan we hadden verwacht." Deze verrassende bevinding laat zien hoe moeilijk het voor AI-bedrijven is om de werkelijke gebruikskosten te voorspellen en een passende prijs te berekenen.

Het verrassende verband tussen beide veranderingen

De tijdsafstand tussen beide gebeurtenissen is meer dan toeval. ChatGPT is voor zijn reacties vaak afhankelijk van actuele webinformatie en heeft direct of indirect via scrapingdiensten toegang tot Google-resultaten. Het uitschakelen van de parameter num=100 bemoeilijkt ook aanzienlijk de efficiënte verzameling van webdata voor ChatGPT en andere AI-systemen.

AI-applicaties zoals ChatGPT vertrouwen op uitgebreide, actuele webdata om relevante en accurate antwoorden te genereren. De parameter num=100 stelde deze systemen in staat om snel en kosteneffectief grote hoeveelheden zoekresultaten te verzamelen en de beste bronnen voor hun antwoorden te selecteren.

Door deze parameter uit te schakelen, moeten AI-systemen nu aanzienlijk meer individuele zoekopdrachten uitvoeren, wat de kosten exponentieel verhoogt. Dit verklaart waarom OpenAI tegelijkertijd de citatiefrequentie verlaagde: de kosten voor het aanbieden van actuele webinformatie waren simpelweg niet langer economisch rendabel.

Het financieringstekort van 800 miljard dollar

De alarmerende voorspelling van Bain & Company

Een recent onderzoek van Bain & Company onthult een dreigend financieringstekort in de AI-industrie. Tegen 2030 zullen AI-bedrijven zoals OpenAI, Google en DeepSeek jaarlijks ongeveer 2 biljoen dollar moeten genereren om de stijgende kosten van rekenkracht en infrastructuur te dekken. De consultants verwachten echter dat de sector ongeveer 800 miljard dollar tekort zal schieten om deze doelstelling te halen.

David Crawford, voorzitter van de Global Technology Practice van Bain & Company, waarschuwt dringend: "Als de huidige wetgeving voor schaalbaarheid van kracht blijft, zal kunstmatige intelligentie een steeds grotere last vormen voor wereldwijde toeleveringsketens." Deze discrepantie tussen de vereiste en verwachte omzet roept fundamentele vragen op over de waardering en de bedrijfsmodellen van de AI-industrie.

Grote investeringen versus onduidelijke rendementen

Grote Amerikaanse technologiebedrijven drijven hun AI-investeringen naar ongekende hoogten. Microsoft, Meta en Google plannen samen $ 215 miljard voor AI-projecten tegen 2025. Amazon heeft een extra investering van $ 100 miljard aangekondigd. Deze uitgaven zullen voornamelijk worden besteed aan de uitbreiding van datacenters en de ontwikkeling van nieuwe AI-modellen.

De investeringen zijn sinds de lancering van ChatGPT meer dan verdubbeld. Tegen 2024 hadden de vier grootste techbedrijven samen $ 246 miljard geïnvesteerd in AI – een stijging van 63 procent ten opzichte van het voorgaande jaar. Begin jaren 2030 zouden de jaarlijkse uitgaven aan AI de $ 500 miljard kunnen overschrijden.

Energievraag en infrastructuuruitdagingen

Bain & Company voorspelt dat de extra wereldwijde vraag naar computerkracht tegen 2030 zou kunnen oplopen tot 200 gigawatt, waarvan de helft in de Verenigde Staten. Het stroomverbruik van AI-datacenters zal stijgen van 50 miljard kilowattuur in 2023 tot ongeveer 550 miljard kilowattuur in 2030 – een elfvoudige toename.

Deze enorme uitbreiding zal aanzienlijke gevolgen hebben voor het milieu. Ondanks de uitbreiding van hernieuwbare energie zullen de broeikasgasemissies van datacenters stijgen van 212 miljoen ton in 2023 tot 355 miljoen ton in 2030. Het waterverbruik voor koeling zal in dezelfde periode bijna verviervoudigen tot 664 miljard liter.

Geschikt hiervoor:

De DeepSeek-schok als keerpunt

Kosteneffectieve innovatie uit China

De Chinese startup DeepSeek heeft de AI-industrie opgeschud met zijn R1-model. Met een geschatte ontwikkelingskosten van slechts $ 5,6 miljoen heeft het bedrijf een model ontwikkeld dat kan concurreren met de aanzienlijk duurdere Amerikaanse modellen. Ter vergelijking: de ontwikkeling van OpenAI's GPT-4o kostte ongeveer $ 80 miljoen.

De prijzen van DeepSeek liggen enorm onder die van de concurrentie. De modellen van het bedrijf zijn 20 tot 40 keer goedkoper dan vergelijkbare modellen van OpenAI. Het Reasoner-model van DeepSeek kost 53 cent per miljoen inputtokens, terwijl het o1-model van OpenAI $15 kost voor hetzelfde aantal.

Impact op de dynamiek in de industrie

Het succes van DeepSeek stelt eerdere aannames in de AI-industrie ter discussie. Het bedrijf bewijst dat geavanceerde AI mogelijk is, zelfs zonder miljardenbudgetten, waardoor gevestigde aanbieders onder aanzienlijke prijsdruk komen te staan. Deze ontwikkeling benadrukt een interessant neveneffect van de Amerikaanse exportbeperkingen: de technische beperkingen dwongen het bedrijf tot software-innovaties om de beschikbare hardware optimaal te benutten.

Binnen enkele weken veroverde de AI-assistent van DeepSeek 21 procent van het wereldwijde LLM-gebruikersaandeel en verdrong ChatGPT als populairste gratis app in de App Store van Apple. Deze snelle marktpenetratie onderstreept de volatiliteit van de AI-markt en het gevaar voor gevestigde aanbieders met kostenintensieve bedrijfsmodellen.

 

Onze aanbeveling: 🌍 Beperkeloos bereik 🔗 Netwerkte 🌐 Meertalig 💪 Sterk in verkoop: 💡 Authentiek met strategie 🚀 Innovatie voldoet aan 🧠 Intuïtie

Van de bars tot wereldwijde: MKB -bedrijven veroveren de wereldmarkt met een slimme strategie - afbeelding: xpert.Digital

In een tijd waarin de digitale aanwezigheid van een bedrijf beslist over het succes ervan, de uitdaging van hoe deze aanwezigheid authentiek, individueel en uitgebreid kan worden ontworpen. Xpert.Digital biedt een innovatieve oplossing die zichzelf positioneert als een kruising tussen een industriële hub, een blog en een merkambassadeur. Het combineert de voordelen van communicatie- en verkoopkanalen in één platform en maakt publicatie mogelijk in 18 verschillende talen. De samenwerking met partnerportals en de mogelijkheid om bijdragen aan Google News en een persdistributeur te publiceren met ongeveer 8.000 journalisten en lezers maximaliseren het bereik en de zichtbaarheid van de inhoud. Dit is een essentiële factor in externe verkoop en marketing (symbolen).

Meer hierover hier:

 

AI creëert winnaars en verliezers: wie overleeft de nieuwe internetorde?

De dramatische impact op websiteverkeer

De neergang van AI-overzichten

Uit een onderzoek van Authoritas blijkt dat de klikfrequenties voor websites van uitgevers in het Verenigd Koninkrijk aanzienlijk zijn gedaald, met ongeveer de helft, dankzij AI Overviews. Volgens het onderzoek daalt de klikfrequentie met 47,5 procent op desktop en met 37,7 procent op mobiel wanneer AI Overviews worden gebruikt. Zelfs wanneer een website bovenaan de Google AI Overviews-lijst staat, is er slechts een minimale verbetering in kliks.

Een nieuwe studie van SEO-expert Kevin Indig en UX-onderzoeker Eric Van Buskirk onderzoekt systematisch het gebruik van Google's AI Overviews. In een complexe setting werden 70 gebruikers geobserveerd tijdens het uitvoeren van acht realistische zoekopdrachten. Dit resulteerde in ongeveer 400 AIO-interacties, wat inzicht geeft in hoe sterk webzoekgedrag verandert onder invloed van AI.

AI-overzichten verlagen vervolgens de klikfrequentie op externe links aanzienlijk. Op desktops daalt de klikfrequentie tot wel twee derde, en op mobiele apparaten zelfs met bijna de helft. Gebruikers vertrouwen steeds vaker op de informatie in het AI-overzicht, vooral bij eenvoudige of gestandaardiseerde zoekopdrachten.

Geschikt hiervoor:

De ineenstorting van traditioneel webverkeer

Sinds Google in mei 2024 in de VS en eind maart 2025 in Duitsland generatieve AI-antwoorden in de zoekresultaten integreerde, maken contentaanbieders zoals nieuwssites, blogs en forums zich zorgen over een aanzienlijke daling van hun bezoekersaantallen. Als het antwoord al op de zoekpagina staat, klikken mensen vaak niet op de oorspronkelijke bron.

De CTR van Publisher Mail Online daalde met meer dan 56 procent dankzij AI Overviews. Sommige websites ondervonden een daling van het organische verkeer met 18-64 procent. De organische CTR kan met AI tot wel 70 procent dalen.

Built In meldt dat het organische zoekverkeer voor uitgevers tegen 2026 met 25 procent zou kunnen dalen. Zelfs de top drie posities kampen met enorme CTR-dalingen door AIO's; posities 4-10 zien dalingen tot 50 procent. Uit een onderzoek onder 1000 MKB-websites bleek dat 68 procent aanzienlijk verlies aan organisch verkeer ondervond na de implementatie van AI-zoekfuncties.

De concentratie op een paar bronnen

Het verwijzingsverkeer van ChatGPT naar websites is sinds juli 2024 met 52 procent gedaald. Het aantal verwijzingen naar Reddit is met 87 procent gestegen en is nu goed voor meer dan 10 procent van alle ChatGPT-vermeldingen. Wikipedia steeg met 62 procent ten opzichte van het dieptepunt in juli en behaalde bijna 13 procent van het aandeel verwijzingen.

De drie populairste websites – Wikipedia, Reddit en TechRadar – waren goed voor 22 procent van alle citaties, een stijging van 53 procent in slechts één maand. ChatGPT geeft nu de voorkeur aan een handvol bronnen die eerst antwoorden, terwijl merkgerelateerde websites minder zichtbaar zijn en miljoenen potentiële verwijzingskliks mislopen.

Storingen onder tijdsdruk

Problemen met het genereren van afbeeldingen bij Google

De huidige problemen met Google Gemini manifesteren zich op verschillende niveaus. Gebruikers melden al wekenlang fundamentele storingen in de beeldtechnologie, met name bij het genereren van afbeeldingen in de gewenste formaten. Het wijdverbreide probleem doet zich vooral voor bij het genereren van afbeeldingen in 16:9-formaat, wat voorheen probleemloos mogelijk was, maar nu niet meer wordt ondersteund.

Nog ernstiger is het fenomeen waarbij afbeeldingen zogenaamd worden gegenereerd, maar niet kunnen worden weergegeven. Gebruikers ontvangen bevestigingen dat de afbeeldingen succesvol zijn aangemaakt, maar zien alleen lege ruimtes of foutmeldingen. Dit probleem doet zich voor in zowel de webversie als de mobiele app, waardoor de functie voor het genereren van afbeeldingen vrijwel onbruikbaar is.

Communicatiefalen en gebrek aan transparantie

Googles aanpak van deze schijnbare systeemfouten is bijzonder problematisch. Het bedrijf informeert gebruikers niet proactief over deze problemen, ook al zijn ze er al weken. In plaats daarvan blijft het systeem beweren dat alle functies naar behoren werken, terwijl de daadwerkelijke prestaties aanzienlijk zijn verminderd.

De huidige problemen moeten niet los van elkaar worden gezien, maar maken deel uit van een reeks problemen met de AI-systemen van Google. In februari 2024 moest Google de menselijke representatie in Gemini volledig uitschakelen nadat het systeem historisch onnauwkeurige afbeeldingen genereerde. Duitse soldaten werden afgebeeld met Aziatische gelaatstrekken en Vikingen kregen dreadlocks – fouten die fundamentele problemen in de voorbereiding van de trainingsdata aan het licht brachten.

Geschikt hiervoor:

Structurele problemen in AI-ontwikkeling

De haast van publicaties

De terugkerende problemen wijzen op systematische zwakheden in de AI-ontwikkeling van Google. Het bedrijf lijkt onder enorme tijdsdruk te staan ​​om gelijke tred te houden met concurrenten zoals OpenAI, wat resulteert in overhaaste lanceringen van producten. Deze mentaliteit van "snel handelen en dingen kapotmaken" werkt misschien wel in andere technologische gebieden, maar blijkt problematisch te zijn bij AI-systemen, omdat fouten een directere impact hebben op de gebruikerservaring.

De werkomstandigheden van de onderaannemers die verantwoordelijk zijn voor contentmoderatie en systeemverbetering verergeren deze problemen nog verder. Berichten over tijdsdruk, lage lonen en een gebrek aan transparantie in de toeleveringsketen roepen twijfels op over de kwaliteit van handmatige systeemoptimalisatie.

Fragmentatie van de systeemarchitectuur

Het gebrek aan integratie tussen verschillende Google-diensten wijst op structurele tekortkomingen. Hoewel Google Foto's nieuwe AI-beeldverwerkingsfuncties krijgt, werkt de basisbeeldgeneratie in Gemini niet naar behoren. Deze fragmentatie wijst op onvoldoende interne coördinatie en verergert de problemen voor eindgebruikers.

De economische gevolgen

Impact op verschillende gebruikersgroepen

De beschreven problemen hebben concrete gevolgen voor verschillende gebruikersgroepen. Contentmakers en marketingprofessionals die afhankelijk zijn van betrouwbare beeldgeneratie, moeten hun toevlucht nemen tot alternatieve oplossingen. Dit leidt niet alleen tot verstoringen van de workflow, maar ook tot extra kosten voor andere tools.

De situatie is vooral problematisch voor gebruikers van de betaalde Gemini Pro-versie. Ze betalen voor geavanceerde functies, maar krijgen vaak slechtere prestaties dan beloofd. Velen hebben hun abonnement al opgezegd omdat de beloofde verbeteringen niet zijn doorgevoerd.

Het verlies van vertrouwen in AI-aanbieders

De onbetrouwbaarheid van de systemen leidt tot een verlies aan vertrouwen in Google als AI-aanbieder. Gebruikers die afhankelijk zijn van de nauwkeurigheid en beschikbaarheid van de diensten, wenden zich steeds vaker tot alternatieve aanbieders. Dit zou de positie van Google op de zeer competitieve AI-markt op de lange termijn kunnen verzwakken.

Hoewel OpenAI's DALL-E en Anthropic's Claude consistentere resultaten opleveren, kampt Google met fundamentele functionele problemen. Wat vooral opvalt, is dat zelfs gratis alternatieven vaak betrouwbaarder presteren dan de premium-aanbiedingen van Google.

Parallellen met de dotcom-zeepbel

Vergelijkbare marktdynamiek

De huidige ontwikkelingen vertonen opvallende parallellen met de dotcomzeepbel rond de eeuwwisseling. Destijds leidde de internethype tot extreme waarderingen en culmineerde in een spectaculaire crash. Tegenwoordig staan ​​AI-bedrijven voor vergelijkbare uitdagingen: astronomische waarderingen botsen met onduidelijke bedrijfsmodellen, terwijl de kloof tussen investeringen en daadwerkelijke inkomsten steeds groter wordt.

De huidige waardering van de S&P 500 staat gelijk aan 38 keer de winst van de afgelopen tien jaar. Alleen tijdens de dotcombubbel was de waardering hoger, zoals strategen van Morgan Stanley benadrukken. Henry Blodget, een voormalig steranalist van het dotcomtijdperk, waarschuwt voor griezelige parallellen met de huidige AI-hausse.

De bizarre waarheid achter het herstel in de VS

George Saravelos van Deutsche Bank verwoordt het schokkend: "AI-machines redden letterlijk de Amerikaanse economie." Zijn analyse onthult een paradoxale situatie: economische groei komt niet voort uit revolutionaire AI-toepassingen, maar uit de simpele bouw van "AI-capaciteitsproductiefabrieken".

Bijzonder controversieel: de bank stelt dat Amerika zonder deze technologiegerelateerde uitgaven al in een recessie zou zitten. Een kaartenhuis van miljarden aan investeringen houdt 's werelds grootste economie overeind. Deze extreme afhankelijkheid van AI-investeringen brengt systeemrisico's met zich mee die veel verder reiken dan de technologiesector.

Geschikt hiervoor:

Oplossingen en toekomstperspectieven

Alternatieve bedrijfsmodellen

Stijgende kosten dwingen AI-aanbieders tot het ontwikkelen van nieuwe bedrijfsmodellen. OpenAI test prijsstelling op basis van gebruik, waarbij klanten alleen betalen voor de rekenkracht die ze daadwerkelijk gebruiken. Batch-API's bieden al kostenbesparingen tot 50 procent voor niet-tijdkritische verzoeken.

Om winstgevend te worden, overweegt OpenAI naar verluidt de prijzen voor zijn verschillende abonnementsniveaus te verhogen. Het bedrijf plant drastische prijsverhogingen: ChatGPT Plus zal naar verwachting stijgen van $ 20 naar $ 22 per maand tegen eind 2024, en zelfs $ 44 per maand in 2029.

Specialisatie als overlevingsstrategie

De stijgende kosten van universele AI-systemen zouden kunnen leiden tot de ontwikkeling van gespecialiseerde oplossingen. In plaats van te proberen alle vragen te beantwoorden met actuele webdata, zouden AI-systemen selectiever kunnen zijn en alleen hun toevlucht nemen tot kostbare webzoekopdrachten voor specifieke typen vragen.

Dit zou een diversificatie van de AI-markt bevorderen, waarbij verschillende aanbieders verschillende specialisaties ontwikkelen. Sommige zouden zich kunnen richten op actuele informatie, andere op diepgaande expertise zonder internetverbinding.

Nieuwe samenwerkingsmodellen

Er ontstaan ​​al nieuwe samenwerkingsmodellen tussen AI-aanbieders en contentmakers. Sommige uitgevers onderhandelen over directe licentieovereenkomsten met AI-bedrijven om een ​​eerlijk deel van het gebruik van hun content te ontvangen. Deze ontwikkeling zou kunnen leiden tot een nieuw ecosysteem waarin contentmakers direct worden gecompenseerd voor het gebruik van hun content in AI-systemen.

Aanbevelingen voor verschillende belanghebbenden

Voor websitebeheerders en contentmakers

Website-eigenaren zouden hun strategieën moeten diversifiëren en niet uitsluitend op zoekmachineverkeer moeten vertrouwen. Het opbouwen van directe relaties met gebruikers via nieuwsbrieven, sociale media en andere kanalen zal belangrijker worden. Tegelijkertijd zouden ze de kwaliteit van hun content moeten verbeteren, zodat deze in door AI gegenereerde antwoorden wordt genoemd.

In plaats van te focussen op kwantiteit, wordt kwaliteit steeds belangrijker. Contentmakers zouden zich moeten richten op het creëren van nuttige, unieke content die écht waarde biedt. De tijd dat pure SEO-optimalisatie voldoende was om top 100-posities te bereiken, is voorbij.

Voor SEO-bureaus en -tools

SEO-bureaus moeten hun diensten aanpassen en zich meer richten op de top 20-posities, aangezien deze het grootste deel van het echte verkeer genereren. Het tijdperk van uitgebreide top 100-analyses loopt ten einde, waardoor er middelen vrijkomen voor meer diepgaande optimalisatie.

Toolleveranciers zoals Semrush en Accuranker werken koortsachtig aan de aanpassing van hun systemen, maar de hogere kosten worden onvermijdelijk doorberekend aan klanten. Veel gevestigde tools tonen momenteel onvolledige of onjuiste data omdat hun crawllogica gebaseerd was op de oude parameter num=100.

Voor AI-bedrijven

AI-bedrijven staan ​​voor de uitdaging om duurzame bedrijfsmodellen te ontwikkelen die zowel voor henzelf als voor contentmakers werken. De huidige praktijken van gratis gebruik van content zijn op de lange termijn onhoudbaar als ze de basis van hun databronnen ondermijnen.

Om het vertrouwen van gebruikers terug te winnen, moeten bedrijven zoals Google hun aanpak fundamenteel veranderen. Ten eerste is transparantere communicatie over systeemproblemen en gepland onderhoud vereist. Gebruikers hebben recht om te weten wanneer functies niet goed werken.

Verborgen bezuinigingsmaatregelen en hun gevolgen: de nieuwe macht van de techgiganten

De ogenschijnlijk kleine technische veranderingen bij Google en ChatGPT markeren een fundamenteel keerpunt in het digitale informatielandschap. Ze laten zien hoe afhankelijk het hele internetecosysteem is van de beslissingen van een paar grote technologiebedrijven.

Het gecombineerde effect van beide veranderingen versnelt de transformatie van een linkgebaseerd naar een AI-gemedieerd internet. Deze ontwikkeling brengt zowel kansen als risico's met zich mee: gebruikers krijgen sneller antwoord op hun vragen, maar de economische basis van contentcreatie wordt fundamenteel in twijfel getrokken.

De sector bevindt zich in een fase van heroriëntatie waarin nieuwe evenwichten moeten worden gevonden tussen technologieaanbieders, contentmakers en gebruikers. De komende jaren zullen uitwijzen welke spelers zich succesvol kunnen aanpassen aan de veranderende omstandigheden en welke nieuwe businessmodellen er zullen ontstaan.

Het door Bain & Company voorspelde financieringstekort van $ 800 miljard zou kunnen leiden tot consolidatie in de sector. Alleen de financieel sterkste bedrijven zouden overleven, terwijl kleinere aanbieders en startups van de markt zouden kunnen verdwijnen. Of de AI-bubbel zich ontwikkelt tot een gecontroleerde correctie of een dramatische crash, hangt af van de vraag of de sector tijdig levensvatbare bedrijfsmodellen kan ontwikkelen.

De verborgen bezuinigingsmaatregelen bij grote AI-aanbieders vormen slechts het topje van de ijsberg van een veel grotere structurele crisis. Terwijl het publiek gefascineerd blijft door de mogelijkheden van kunstmatige intelligentie, vechten bedrijven achter de schermen wanhopig voor hun financiële overleving. De stille revolutie is al in volle gang – de gevolgen ervan zullen het digitale landschap de komende jaren vormgeven.

 

Uw wereldwijde partner voor marketing en bedrijfsontwikkeling

☑️ onze zakelijke taal is Engels of Duits

☑️ Nieuw: correspondentie in uw nationale taal!

 

Konrad Wolfenstein

Ik ben blij dat ik beschikbaar ben voor jou en mijn team als een persoonlijk consultant.

U kunt contact met mij opnemen door het contactformulier hier in te vullen of u gewoon te bellen op +49 89 674 804 (München) . Mijn e -mailadres is: Wolfenstein Xpert.Digital

Ik kijk uit naar ons gezamenlijke project.

 

 

☑️ MKB -ondersteuning in strategie, advies, planning en implementatie

☑️ Creatie of herschikking van de digitale strategie en digitalisering

☑️ Uitbreiding en optimalisatie van de internationale verkoopprocessen

☑️ Wereldwijde en digitale B2B -handelsplatforms

☑️ Pioneer Business Development / Marketing / PR / Maatregel

 

🎯🎯🎯 Hoofd van de uitgebreide, vijf -time expertise van Xpert.Digital in een uitgebreid servicepakket | R&D, XR, PR & SEM

AI & XR-3D-renderingmachine: vijf keer expertise van Xpert.Digital in een uitgebreid servicepakket, R&D XR, PR & SEM-beeld: Xpert.Digital

Xpert.Digital heeft diepe kennis in verschillende industrieën. Dit stelt ons in staat om op maat gemaakte strategieën te ontwikkelen die zijn afgestemd op de vereisten en uitdagingen van uw specifieke marktsegment. Door continu markttrends te analyseren en de ontwikkelingen in de industrie na te streven, kunnen we handelen met vooruitziende blik en innovatieve oplossingen bieden. Met de combinatie van ervaring en kennis genereren we extra waarde en geven onze klanten een beslissend concurrentievoordeel.

Meer hierover hier:

Verlaat de mobiele versie