
Strategiernas konflikt | Varför IBMs VD Arvind Krishna inte tror på Sam Altmans vision på en biljon dollar – AGI på noll till en procent? – Bild: Xpert.Digital
Artificiell generell intelligens (AGI) och oförlåtande matematik: Varför datacenterboomen aldrig kan löna sig.
5-års dödscykeln: Den underskattade risken för Nvidia, Microsoft och andra.
Medan Silicon Valley är uppslukad av en exempellös investeringsfrenesi, med biljoner som strömmar in i kapplöpningen om artificiell superintelligens, drar en av världens mest erfarna teknikchefer i nödbromsen. IBMs VD Arvind Krishna varnar: Satsningen lönar sig inte.
En guldrushmentalitet griper tag i den globala tekniksektorn. Företag som Microsoft, Google och Meta överträffar varandra med investeringar i nya datacenter, drivna av rädslan för att bli lämnade efter i nästa stora tekniska revolution. Visionen är tydlig: utvecklingen av artificiell generell intelligens (AGI) som är lika med eller överlägsen mänsklig intelligens. Men mitt i denna eufori stiger en kraftfull röst, inte från teknikkritikernas led, utan från maktens centrum: Arvind Krishna, VD för IBM.
I en nykter analys baserad på ren aritmetik monterar Krishna ner den rådande Silicon Valley-narrativet. Hans varning är lika enkel som den är skrämmande: Infrastrukturkostnaderna exploderar medan hårdvara blir föråldrad snabbare än den kan avskrivas. Krishna talar om investeringssummor på upp till åtta biljoner amerikanska dollar som skulle vara nödvändiga för att fortsätta den nuvarande utvecklingen av AGI – en summa som skulle kunna ruinera även världens rikaste företag om de utlovade astronomiska vinsterna uteblir.
Men Krishnas kritik är inte begränsad till ekonomiska siffror. Han ifrågasätter den tekniska grunden för själva hypen. Medan Sam Altman och OpenAI framställer superintelligensens ankomst som nästan oundviklig, sätter Krishna sannolikheten att uppnå detta mål med dagens storskaliga språkmodelleringsteknik till en allvarlig noll till en procent.
Står vi inför den största felinvesteringen i ekonomisk historia? Är AI-boomen en bubbla som håller på att spricka, eller förbiser skeptiker den transformativa potential som ligger bortom balansräkningarna? Följande artikel undersöker argumenten, den oförlåtande matematiken inom datacenterekonomi och den grundläggande konflikten mellan visionärerna för en "allt-eller-inget"-strategi och förespråkarna för pragmatisk realism.
Lämplig för detta:
Varför IBMs VD förutspår slutet på det dyraste experimentet i teknikhistorien
Den globala tekniksektorn kan stå inför en av de största felinvesteringarna i ekonomisk historia. Medan företag som Microsoft, Amazon, Meta och Google pumpar hundratals miljarder dollar i att bygga infrastruktur för artificiell intelligens, stiger en varnande röst från IT-branschens hjärta. Arvind Krishna, VD för IBM och anställd på företaget sedan 1990, presenterade en grundläggande ekonomisk analys i en intervju med The Verges Decoder-podcast i slutet av november 2025 som skulle kunna krossa euforin kring artificiell generell intelligens.
Hans uttalanden, publicerade den 30 november och 1 december 2025, går till kärnan i en debatt som får allt större fart i styrelserum och analytikerkretsar. Krishna talar inte om teoretiska risker eller filosofiska funderingar, utan om konkreta finansiella omöjligheter som ifrågasätter den nuvarande investeringsmodellen inom AI-sektorn. Hans beräkningar får även optimistiska branschbedömare att stanna upp, eftersom de bygger på enkel aritmetik och sunda affärsprinciper.
Lämplig för detta:
Datacenterekonomins skoningslösa matematik
Krishna inleder sin analys med en nykter bedömning av den nuvarande kostnadssituationen. Ett datacenter med en kapacitet på en gigawatt medför kapitalutgifter på 80 miljarder amerikanska dollar enligt dagens mått mätt. Denna siffra inkluderar inte bara den fysiska infrastrukturen och byggnaderna, utan även all teknisk utrustning, från servrar och nätverkskomponenter till de högt specialiserade grafikprocessorer som krävs för AI-beräkningar.
Teknikindustrin har åtagit sig en massiv expansion de senaste månaderna. Flera företag har offentligt tillkännagivit planer på att bygga mellan 20 och 30 gigawatt ytterligare datorkapacitet. Med nuvarande kostnader per gigawatt skulle detta resultera i totala investeringar på minst 1,5 biljoner dollar. Denna summa motsvarar ungefär Teslas nuvarande börsvärde och illustrerar den stora omfattningen av projektet.
Men beräkningen blir ännu mer drastisk när man beaktar ambitionerna i samband med den önskade artificiella generella intelligensen. Krishna uppskattar att vägen till sann AGI skulle kräva cirka 100 gigawatt datorkraft. Denna uppskattning baseras på extrapoleringar av nuvarande träningskrav för stora språkmodeller och tar hänsyn till den exponentiellt ökande komplexiteten som följer med varje utvecklingssteg. Med en kostnad på 80 miljarder dollar per gigawatt skulle investeringsutgifterna uppgå till svindlande åtta biljoner amerikanska dollar.
Denna investeringssiffra är dock bara halva historien. Krishna pekar på en faktor som ofta förbises i den offentliga debatten: kapitalkostnaden. Med en investering på åtta biljoner amerikanska dollar skulle företag behöva generera cirka 800 miljarder amerikanska dollar i vinst årligen bara för att täcka räntan på det investerade kapitalet. Denna siffra förutsätter en konservativ ränta på tio procent, vilket återspeglar kapitalkostnaden, riskpremier och investerarnas förväntningar.
Den femåriga dödscykeln för AI-hårdvara
En avgörande punkt i Krishnas argumentation gäller livslängden på den installerade hårdvaran. Hela datorkapaciteten måste utnyttjas fullt ut inom fem år, eftersom den installerade hårdvaran då måste kasseras och ersättas. Denna bedömning överensstämmer med observationer från industrin och är föremål för intensiv debatt i finansiella kretsar.
Den välkände investeraren Michael Burry, känd för sina korrekta förutsägelser om finanskrisen 2008, framförde liknande farhågor i november 2025. Burry menar att stora teknikföretag överskattar den faktiska livslängden för sin AI-hårdvara och därmed artificiellt håller deras avskrivningar låga. Han förväntar sig att grafikprocessorer och specialiserade AI-chip i praktiken bara kommer att förbli ekonomiskt lönsamma i två till tre år innan de blir föråldrade av nyare, kraftfullare generationer.
Den snabba utvecklingen inom halvledarsektorn stöder denna uppfattning. Nvidia, den dominerande leverantören av AI-chip, släpper nya processorgenerationer ungefär var 12:e till 18:e månad. Varje generation erbjuder betydande prestandaförbättringar, vilket snabbt gör äldre modeller oekonomiska. Medan en konventionell server i ett datacenter lätt kan användas i sex år eller mer, gäller andra regler för AI-specifik hårdvara.
I praktiken är bilden mer nyanserad. Vissa företag har justerat sina avskrivningsperioder. I början av 2025 förkortade Amazon den beräknade livslängden för vissa servrar från sex till fem år, med hänvisning till den accelererade utvecklingen inom AI-området. Denna justering kommer att minska företagets rörelseresultat med cirka 700 miljoner dollar år 2026. Meta, å andra sidan, förlängde avskrivningsperioden för servrar och nätverksutrustning till 5,5 år, vilket minskade avskrivningskostnaderna med 2,9 miljarder dollar år 2025.
Dessa olika strategier illustrerar att även företag som investerar miljarder i AI-hårdvara är osäkra på hur länge deras investeringar kommer att förbli ekonomiskt lönsamma. Det femårsscenario som Krishna beskriver faller inom det optimistiska intervallet för dessa uppskattningar. Om den faktiska livslängden är närmare de två till tre år som Burry förutspår, skulle avskrivningskostnaderna, och därmed pressen på lönsamheten, öka avsevärt.
Omöjligheten till lönsam avkastning
Sambandet mellan dessa två faktorer leder Krishna till hans centrala argument. Han menar att kombinationen av enorma kapitalkostnader och korta livscykler gör det omöjligt att uppnå en rimlig avkastning på investeringen. Med investeringskostnader på åtta biljoner amerikanska dollar och behovet av att generera 800 miljarder amerikanska dollar i årlig vinst bara för att täcka kapitalkostnaderna, skulle ett AI-system behöva generera intäkter i en skala som vida överstiger vad som för närvarande verkar realistiskt.
Som jämförelse hade Alphabet, Googles moderbolag, en total intäkt på cirka 350 miljarder dollar år 2024. Även om man antar en aggressiv tillväxt på 12 procent per år skulle intäkterna stiga till cirka 577 miljarder dollar år 2029. De totala intäkterna som krävs för att motivera AI-investeringar skulle vida överstiga denna siffra.
OpenAI, företaget bakom ChatGPT, förutspår en årlig intäkt på över 20 miljarder dollar för 2025 och förväntar sig att nå hundratals miljarder dollar år 2030. Företaget har tecknat avtal värda cirka 1,4 biljoner dollar under de kommande åtta åren. Men även dessa ambitiösa siffror väcker frågor. Analytiker på HSBC förutspår att OpenAI kommer att ådra sig 792 miljarder dollar i moln- och AI-infrastrukturkostnader mellan slutet av 2025 och 2030, med totala åtaganden för datorkapacitet som potentiellt når cirka 1,4 biljoner dollar år 2033.
HSBC-analytiker förutspår att OpenAIs kumulativa fria kassaflöde kommer att förbli negativt fram till 2030, vilket resulterar i ett finansieringsunderskott på 207 miljarder dollar. Detta gap skulle behöva fyllas genom ytterligare skulder, eget kapital eller mer aggressiv intäktsgenerering. Frågan är inte bara om OpenAI kan bli lönsamt, utan om hela dess affärsmodell, som bygger på massiva investeringar i datacenter, ens är hållbar.
Den försvinnande lilla sannolikheten för AGI
Krishna lägger till en teknologisk dimension till sin ekonomiska kritik som är ännu mer grundläggande. Han uppskattar sannolikheten för att nuvarande teknologier kommer att leda till artificiell generell intelligens till mellan noll och en procent. Denna bedömning är anmärkningsvärd eftersom den inte bygger på filosofiska överväganden, utan snarare på en nykter utvärdering av de tekniska möjligheterna och begränsningarna hos stora språkmodeller.
Även om definitionen av AGI är kontroversiell, hänvisar den i grunden till AI-system som kan uppnå eller överträffa mänskliga kognitiva förmågor över hela spektrumet. Detta skulle innebära att ett system inte bara uppvisar expertkunskap inom specifika områden, utan också kan överföra kunskap från ett område till ett annat, förstå nya situationer, kreativt lösa problem och kontinuerligt förbättra sig utan att behöva omskolas för varje ny uppgift.
Krishna menar att stora språkmodeller, som utgör kärnan i den nuvarande AI-revolutionen, har grundläggande begränsningar. Dessa modeller är baserade på statistiska mönster i massiva textdatamängder och kan prestera imponerande i språkbaserade uppgifter. De kan generera sammanhängande texter, besvara frågor och till och med skriva programkod. Men de förstår inte riktigt vad de gör. De saknar en världsmodell, ett kausalitetsbegrepp och en genuin förmåga till abstraktion.
Dessa begränsningar manifesterar sig inom flera områden. Språkmodeller hallucinerar regelbundet, vilket innebär att de uppfinner fakta som låter trovärdiga men är falska. De kämpar med logiskt resonemang i flera steg och misslyckas ofta med uppgifter som är triviala för människor om dessa uppgifter inte inkluderades i deras träningsdataset. De saknar episodiskt minne och kan inte lära sig av sina egna misstag utan omträning.
Vetenskapsmän och forskare från olika områden delar alltmer denna skepticism. Marc Benioff, VD för Salesforce, uttryckte liknande skepticism mot AGI i november 2025. I en podcast beskrev han AGI-termen som potentiellt vilseledande och kritiserade teknikindustrin för att vara under ett slags hypnos när det gäller AI:s förestående möjligheter. Benioff betonade att även om nuvarande system är imponerande, så har de varken medvetenhet eller sann förståelse.
Yann LeCun, senior AI-forskare på Meta, menar att stora språkmodeller aldrig kommer att leda till AGI, oavsett hur mycket de skalas. Han förespråkar alternativa metoder som går utöver ren textprediktion, inklusive multimodala världsmodeller som inte bara bearbetar text utan också integrerar visuell och annan sensorisk information för att bygga interna representationer av världen.
Vår amerikanska expertis inom affärsutveckling, försäljning och marknadsföring
Vår amerikanska expertis inom affärsutveckling, försäljning och marknadsföring - Bild: Xpert.Digital
Branschfokus: B2B, digitalisering (från AI till XR), maskinteknik, logistik, förnybar energi och industri
Mer om detta här:
Ett ämnesnav med insikter och expertis:
- Kunskapsplattform om global och regional ekonomi, innovation och branschspecifika trender
- Insamling av analyser, impulser och bakgrundsinformation från våra fokusområden
- En plats för expertis och information om aktuell utveckling inom näringsliv och teknologi
- Ämnesnav för företag som vill lära sig om marknader, digitalisering och branschinnovationer
AI-bubbla eller framtidens motor? Den farliga klyftan mellan investeringar, energiförbrukning och verkliga vinster.
Det nödvändiga tekniska genombrottet
Krishna menar att uppnå AGI kommer att kräva fler teknologier än vad den nuvarande utvecklingen med stora språkmodeller kan erbjuda. Han föreslår att integrering av hård kunskap med språkmodeller skulle kunna vara en gångbar metod. Med hård kunskap menar han strukturerad, explicit kunskap om kausala samband, fysikaliska lagar, matematiska principer och andra former av kunskap som går utöver statistiska korrelationer.
Detta perspektiv överensstämmer med forskning inom neurosymbolisk AI, som syftar till att kombinera neurala nätverks styrkor inom mönsterigenkänning med de logiska förmågorna hos symboliska AI-system. Symbolisk AI, baserad på regler och logisk inferens, var dominerande under AI-forskningens första decennier men har under senare år blivit omkörd av neurala metoder. Att hybridisera båda metoderna skulle teoretiskt sett kunna producera system som är kapabla till både inlärning och logiskt resonemang.
Andra lovande forskningsinriktningar inkluderar förkroppsligad AI, där system lär sig genom interaktion med en fysisk eller simulerad miljö; kontinuerligt lärande, där system kan utöka sina förmågor utan att förlora tidigare kunskap; och inneboende motiverade system som utforskar och lär sig på egen hand.
Även med dessa ytterligare teknologier förblir Krishna försiktig. Om han fick frågan om denna utökade metod skulle kunna leda till AGI, skulle han bara svara med "kanske". Denna försiktighet understryker den osäkerhet som finns även bland experter som har arbetat med AI i årtionden. Utvecklingen av AGI handlar inte bara om datorkraft eller datavolym, utan kan kräva grundläggande nya insikter i själva intelligensens natur.
Lämplig för detta:
- Oberoende av amerikanska teknikjättar: Hur man uppnår kostnadseffektiv och säker intern AI-drift – Inledande överväganden
Paradoxen med produktiv AI idag
Trots sin skepticism mot AGI och ekonomin bakom massiva datacenterinvesteringar är Krishna inte på något sätt en AI-pessimist. Tvärtom talar han entusiastiskt om nuvarande AI-verktyg och deras inverkan på näringslivet. Han är övertygad om att dessa teknologier kommer att frigöra produktivitetspotential på biljoner dollar inom företag.
Denna distinktion är central för att förstå hans ståndpunkt. Krishna tvivlar inte på värdet av AI i sig, utan snarare på den ekonomiska lönsamheten i den specifika väg som branschen har tagit. Dagens AI-system, särskilt stora språkmodeller, kan redan möjliggöra betydande produktivitetsvinster inom många områden utan att kräva åtta biljoner amerikanska dollar i infrastruktur.
IBM är ett slående exempel på dessa produktivitetsvinster. Sedan januari 2023 har företaget heltäckande implementerat AI och automatisering i sin egen verksamhet och förväntar sig att uppnå produktivitetsvinster på 4,5 miljarder dollar i slutet av 2025. Detta initiativ, som IBM kallar Client Zero, omfattade implementering av hybridmolninfrastruktur, AI- och automatiseringstekniker samt konsultexpertis inom olika affärsenheter.
De konkreta resultaten av denna omvandling är imponerande. IBM har implementerat AI-drivna verktyg inom kundtjänst som löser 70 procent av förfrågningarna och förbättrar lösningstiden med 26 procent. Inom alla affärsenheter har cirka 270 000 anställda utrustats med agentbaserade AI-system som orkestrerar komplexa arbetsflöden och stöder mänskliga arbetare.
Denna typ av AI-applikation kräver inte massiva nya datacenter utan kan bygga vidare på befintlig infrastruktur. Den fokuserar på specifika användningsfall där AI levererar påvisbara förbättringar, snarare än den hypotetiska utvecklingen av generell intelligens. Detta är kärnan i Krishnas argument: Tekniken är värdefull och transformerande, men den nuvarande strategin att investera biljoner i strävan efter AGI är inte ekonomiskt hållbar.
Studier från McKinsey uppskattar att generativ AI har potential att skapa mellan 2,6 biljoner dollar och 4,4 biljoner dollar i ekonomiskt värde årligen över 63 analyserade användningsfall. När man beaktar effekterna av att bädda in generativ AI i programvara som för närvarande används för andra uppgifter, skulle denna uppskattning kunna fördubblas ungefär. Dessa produktivitetsvinster skulle kunna öka den årliga tillväxten av arbetsproduktiviteten med 0,1 till 0,6 procentenheter fram till 2040.
Teknikjättarnas olika strategier
Medan Krishna uttrycker sin oro, fördubblar andra teknikjättar sina satsningar på AI-infrastruktur. De fyra storas investeringar illustrerar omfattningen av denna investeringscykel. Microsoft planerar att spendera ungefär 80 miljarder dollar på att bygga AI-aktiverade datacenter under räkenskapsåret 2025, varav mer än hälften av den investeringen är öronmärkt för USA.
Amazon har aviserat kapitalutgifter på cirka 125 miljarder dollar för 2025, varav majoriteten öronmärkts för AI och relaterad infrastruktur för Amazon Web Services. Företaget har redan signalerat att utgifterna kommer att bli ännu högre under 2026. Meta Platforms förväntar sig kapitalutgifter på mellan 70 och 72 miljarder dollar för 2025, en ökning från den tidigare uppskattningen på 66 till 72 miljarder dollar. För 2026 indikerade företaget att utgifterna skulle bli betydligt högre.
Alphabet, Googles moderbolag, förväntar sig kapitalutgifter på mellan 91 och 93 miljarder dollar för 2025, en ökning från en tidigare prognos på 85 miljarder dollar. Tillsammans planerar dessa fyra företag att spendera mellan 350 och 400 miljarder dollar under 2025, mer än dubbelt så mycket som spenderades för två år sedan.
Dessa massiva investeringar sker i en miljö där de faktiska intäkterna från AI-tjänster fortfarande ligger långt under förväntningarna. OpenAI rapporterar årliga intäkter på över 20 miljarder dollar men är fortfarande olönsamma. Microsoft genererar cirka 13 miljarder dollar i årliga AI-intäkter, med en tillväxt på 175 procent jämfört med föregående år, medan Meta inte kan rapportera en enda dollar i direkta AI-intäkter.
Skillnaden mellan investeringar och intäkter är slående. Morgan Stanley uppskattar att AI-industrin kommer att spendera cirka tre biljoner amerikanska dollar på datacenter år 2028. I jämförelse är de nuvarande intäkterna försumbara. En MIT-studie från juli 2025 visade att ungefär 95 procent av de företag som investerade i AI inte tjänade några pengar på tekniken. De sammanlagda totala utgifterna för dessa företag uppskattas till cirka 40 miljarder amerikanska dollar.
De växande rösterna av skepticism
Krishnas varning är en del av en växande kör av skeptiska röster från olika sektorer inom teknik- och finansvärlden. Dessa farhågor fokuserar inte bara på omedelbara ekonomiska fördelar utan även på systemrisker som uppstår från den nuvarande investeringsdynamiken.
Ekonomer påpekar att AI-sektorn stod för ungefär två tredjedelar av USA:s BNP-tillväxt under första halvåret 2025. En analys från JPMorgan Asset Management visar att AI-utgifter för datacenter bidrog mer till ekonomisk tillväxt än den sammanlagda konsumtionen hos hundratals miljoner amerikanska konsumenter. Harvard-ekonomen Jason Furman beräknade att utan datacenter skulle BNP-tillväxten under första halvåret 2025 bara ha varit 0,1 procent.
Denna koncentration av tillväxt till en enda sektor medför risker. Daron Acemoglu, ekonom vid MIT och Nobelpristagare i ekonomi 2024, menar att den faktiska effekten av AI kan bli betydligt mindre än vad branschprognoserna antyder. Han uppskattar att kanske bara fem procent av jobben kommer att ersättas av AI under de kommande tio åren, vilket är långt färre än de entusiastiska förutsägelserna från vissa teknikledare.
Oron för en bubbla förstärks av flera faktorer. Teknikföretag använder i allt högre grad finansiella instrument som kallas special purpose vehicles (SPV) för att hålla miljarder dollar i utgifter borta från sina balansräkningar. Dessa Wall Street-finansierade SPV:er fungerar som skalbolag för att bygga datacenter. Denna praxis väcker frågor om transparens och den faktiska risk som företagen bär.
Sundar Pichai, VD för Alphabet, beskrev AI-investeringarnas ökning som ett extraordinärt ögonblick i en BBC-intervju i november 2025, men erkände också en viss irrationalitet som åtföljer den nuvarande AI-boomen. Han varnade för att alla företag skulle påverkas om AI-bubblan skulle spricka. Till och med Sam Altman, VD för OpenAI och en av de mest framstående AI-förespråkarna, medgav i augusti 2025 att AI kunde befinna sig i en bubbla, och jämförde marknadsförhållandena med dotcom-boomen och betonade att många intelligenta människor blev alltför upphetsade över en kärna av sanning.
Lämplig för detta:
Energifrågan som en begränsande faktor
Ett annat grundläggande problem, som Krishna inte uttryckligen tar upp men är implicit i hans kostnadsberäkningar, gäller energiförsörjningen. Ett datacenter på 100 gigawatt skulle kräva ungefär 20 procent av USA:s totala elproduktion. Detta är inte en trivial utmaning, utan en potentiell flaskhals som skulle kunna äventyra hela visionen.
Internationella energiorganet (IAEA) förutspår att den globala elbehovet från datacenter kan mer än fördubblas fram till 2030, från cirka 415 terawattimmar år 2024 till mellan 900 och 1 000 terawattimmar. AI kan stå för 35 till 50 procent av datacenters elförbrukning fram till 2030. I USA förväntas elbehovet från datacenter öka från 35 gigawatt till 78 gigawatt fram till 2035, vilket motsvarar 8,6 procent av landets elförbrukning.
Denna efterfrågan kommer i en tid då många länder försöker minska koldioxidutsläppen i sina elnät och öka andelen förnybar energi. Utmaningen är att datacenter kräver en konstant strömförsörjning, 24 timmar om dygnet, 365 dagar om året. Detta gör övergången till förnybar energi mer komplex, eftersom vind- och solkraft är intermittenta och kräver lagringslösningar eller reservkapacitet.
Koldioxidutsläppen från datacenter förväntas öka från 212 miljoner ton år 2023 till potentiellt 355 miljoner ton år 2030, även om denna siffra varierar avsevärt beroende på hastigheten på rena energilösningar och effektivitetsförbättringar. En enda AI-genererad bildgenereringsprocess förbrukar lika mycket el som att ladda en smartphone helt. Att bearbeta en miljon tokens producerar lika mycket koldioxid som en bensindriven bil som kör 8 till 32 kilometer.
Generativ AI kräver ungefär sju till åtta gånger mer energi än traditionella datorbelastningar. Att träna stora AI-modeller kan förbruka lika mycket el som hundratals hushåll under flera månader. Denna energiintensitet innebär att även om de ekonomiska resurserna för att bygga massiva datacenter vore tillgängliga, kanske den fysiska infrastrukturen för att driva dessa anläggningar inte är klar i tid.
Lämplig för detta:
Alternativa teknologiska vägar och deras betydelse
Debatten kring begränsningarna hos storskaliga språkmodeller har lett till ökade forskningsinsatser inom alternativa områden. Kvantberäkning ses av vissa som ett potentiellt genombrott som skulle kunna övervinna nuvarande begränsningar. I oktober 2025 presenterade Google sitt kvantchip Willow, vilket uppnådde en verifierbar kvantfördel. Detta var en milstolpe som överskred gränserna för klassisk fysik och öppnade upp nya möjligheter inom områden som medicin, energi och AI.
Kvantdatorer fungerar enligt helt andra principer än klassiska datorer. De använder kvantbitar, eller qubits, som kan existera i flera tillstånd samtidigt, vilket möjliggör parallella beräkningar i en skala som är omöjlig med konventionella system. Kvantdatorer står dock inför betydande utmaningar, särskilt dekoherens, vilket påverkar qubits stabilitet.
Nyligen genomförda genombrott inom qubit-stabilisering tyder på att skalbara kvantdatorer kan bli verklighet inom de närmaste åren. Företag som PsiQuantum planerar att sätta kvantdatorer 10 000 gånger större än Willow i drift före slutet av detta decennium – datorer som är tillräckligt stora för att ta itu med viktiga frågor om material, läkemedel och naturens kvantaspekter.
Konvergensen av kvantberäkning och artificiell intelligens skulle teoretiskt sett kunna öppna upp nya möjligheter. Kvantalgoritmer har förbättrats mer än 200 gånger vid simulering av viktiga läkemedel och material. Vissa spekulerar i att kombinationen av AGI och kvantberäkning skulle kunna vara möjlig inom ett till två år, följt av artificiell superintelligens inom fem år.
Andra lovande forskningsinriktningar inkluderar optiska datorarkitekturer som använder ljus istället för elektricitet för att driva chips. En arkitektur som kallas Parallel Optical Matrix-Matrix Multiplication, som presenterades i november 2025, skulle kunna eliminera en av de största flaskhalsarna i den nuvarande AI-utvecklingen. Till skillnad från tidigare optiska metoder utför den flera tensoroperationer samtidigt med en enda laserpuls, vilket skulle kunna öka bearbetningshastigheten avsevärt.
IBMs strategiska positionering
Krishnas position är särskilt intressant sett i kontexten av IBMs strategi. Under senare år har IBM medvetet flyttat sitt fokus från en renodlad hårdvaru- och infrastrukturverksamhet till företagsprogramvara, molntjänster och konsulttjänster. Företaget sålde av stora delar av sin traditionella IT-verksamhet och koncentrerade sig istället på hybridmolnlösningar och AI-applikationer för företag.
Denna strategiska inriktning skiljer sig fundamentalt från de metoder som Microsoft, Amazon, Google och Meta använder, vilka alla investerar kraftigt i att bygga sin egen infrastruktur. IBM fokuserar istället på att hjälpa företag att implementera AI på sina egna villkor, med transparens, valfrihet och flexibilitet. Denna filosofi återspeglar en övertygelse om att inte alla företag kommer att använda ett enda publikt moln och att i synnerhet reglerade branscher och företag utanför USA kommer att föredra hybridmetoder.
Krishnas kritik av de massiva infrastrukturinvesteringarna kan därför också förstås som ett implicit försvar av IBMs tillvägagångssätt. Om strävan efter AGI genom biljoner dollar i datacenterinvesteringar verkligen inte är ekonomiskt hållbar, skulle detta bekräfta IBMs strategi att fokusera på specifika, värdeskapande användningsområden som kan bygga vidare på befintlig eller måttligt utökad infrastruktur.
Samtidigt är IBM starkt involverat i områden som kvantberäkning, vilket potentiellt skulle kunna representera nästa teknologiska våg. Företaget investerar avsevärt i utvecklingen av kvantdatorer och arbetar med partnerskap med andra teknikföretag för att utveckla denna teknik. Detta tyder på att Krishna inte är emot innovation eller ambitiösa teknologiska mål, utan snarare emot en specifik strategi som han anser vara ekonomiskt ogenomförbar.
🎯🎯🎯 Dra nytta av Xpert.Digitals omfattande, femfaldiga expertis i ett heltäckande tjänstepaket | BD, R&D, XR, PR och optimering av digital synlighet
Dra nytta av Xpert.Digitals omfattande, femfaldiga expertis i ett heltäckande tjänstepaket | FoU, XR, PR och optimering av digital synlighet - Bild: Xpert.Digital
Xpert.Digital har djup kunskap i olika branscher. Detta gör att vi kan utveckla skräddarsydda strategier som är anpassade efter kraven och utmaningarna för ditt specifika marknadssegment. Genom att kontinuerligt analysera marknadstrender och bedriva branschutveckling kan vi agera med framsyn och erbjuda innovativa lösningar. Med kombinationen av erfarenhet och kunskap genererar vi mervärde och ger våra kunder en avgörande konkurrensfördel.
Mer om detta här:
Produktivitet ja, AGI nej: Varför riktade AI-projekt kan vara mer lönsamma än megamodeller
Perspektivet för OpenAI-ledarskapet
Krishnas skepticism står i direkt kontrast till de offentliga uttalandena från Sam Altman, VD för OpenAI. Altman har upprepade gånger betonat att OpenAI är beredd att göra massiva investeringar för att uppnå AGI. Företaget har ingått avtal på totalt cirka 1,4 biljoner dollar under de kommande åtta åren, inklusive betydande affärer med Oracle, Broadcom och andra partners.
Altman förutspår att OpenAI kommer att uppnå årliga intäkter på hundratals miljarder amerikanska dollar år 2030. Denna prognos bygger på antagandet att efterfrågan på AI-tjänster kommer att växa exponentiellt i takt med att systemen blir kraftfullare. OpenAIs affärsmodell är beroende av att företag och individer är villiga att betala betydande summor för tillgång till avancerade AI-funktioner.
Krishna uppgav i podden att han förstår Altmans perspektiv men inte delar det. Detta är ett anmärkningsvärt diplomatiskt sätt att uttrycka det på, vilket antyder att han respekterar OpenAIs vision men gör fundamentalt annorlunda antaganden om dess tekniska genomförbarhet och ekonomiska lönsamhet. Krishna besvarar frågan om OpenAI kan generera avkastning på sina investeringar med ett tydligt "nej".
Denna oenighet representerar en grundläggande konflikt i teknikbranschen mellan de som tror på en nära förestående transformerande AGI och är beredda att investera astronomiska summor, och de som är mer skeptiska och föredrar en stegvis, mer ekonomiskt hållbar strategi.
Lämplig för detta:
Avskrivningsprincipens och redovisningsstandardernas roll
Debatten kring den faktiska livslängden för AI-hårdvara väcker grundläggande frågor om redovisning och transparens. Hur företag avskriver sina tillgångar påverkar direkt deras redovisade vinster och därmed aktiekurser och värderingar.
Michael Burry menar att stora teknikföretag överskattar livslängden för sina AI-chip för att hålla avskrivningarna låga och blåsa upp vinsterna. Om Meta till exempel spenderar 5 miljarder dollar på ett nytt Nvidia Blackwell-serverrack år 2025 och avskriver det över 5,5 år, kommer de årliga avskrivningskostnaderna att fördelas över cirka 909 miljoner dollar. Men om den faktiska livslängden bara är tre år, bör den årliga avskrivningen vara cirka 1,67 miljarder dollar – en betydande skillnad.
Burry uppskattar att dessa förlängda livslängder skulle kunna öka vinsterna för flera stora företag med totalt 176 miljarder dollar mellan 2026 och 2028. Nvidia bestred dessa påståenden i ett internt PM i november 2025 och hävdade att hyperskalare minskar GPU:ernas värde över en fyra till sexårsperiod baserat på faktisk livslängd och användningstrender. Företaget påpekade att äldre GPU:er, som A100 som släpptes 2020, fortsätter att användas med hög utnyttjandegrad och behåller ett betydande ekonomiskt värde.
Verkligheten ligger sannolikt någonstans mittemellan. Grafikkort kan visserligen fungera fysiskt i mer än tre år, men deras ekonomiska värde kan minska snabbt i takt med att nyare, effektivare modeller kommer ut på marknaden. En nyckelfaktor är värdekaskaden: äldre grafikkort, som inte längre är optimala för att träna de senaste modellerna, kan fortfarande vara användbara för inferensuppgifter och för att köra redan tränade modeller. De kan också användas för mindre krävande applikationer eller säljas på andrahandsmarknader.
Dessa nyanser försvårar en tydlig bedömning. CoreWeave, en AI-fokuserad molnleverantör, förlängde avskrivningsperioden för sina GPU:er från fyra till sex år i januari 2023. Kritiker ser detta beslut som ett försök att artificiellt förbättra lönsamheten. Förespråkare, å andra sidan, menar att den faktiska användningen av hårdvaran motiverar längre perioder.
De sociala och politiska dimensionerna
Debatten kring AI-investeringar har också en politisk och social dimension. David Sacks, riskkapitalist och rådgivare i Vita huset om kryptovalutor och AI, varnade i november 2025 för att en vändning av AI-investeringsboomen skulle riskera en recession. Hans formuleringar antyder att ekonomin har blivit så beroende av AI-investeringar att ett stopp eller en betydande avmattning skulle få betydande makroekonomiska konsekvenser.
Detta beroende väcker frågan om samhället har manövrerat sig in i en situation där det tvingas fortsätta investera, oavsett sin ekonomiska bärkraft, bara för att undvika en plötslig chock. Detta skulle vara en klassisk bubbeldynamik, där rationella ekonomiska överväganden överskuggas av rädslan för konsekvenserna av en sprickande bubbla.
Koncentrationen av investeringar och resurser på AI väcker också frågor om alternativkostnader. De biljoner som flödar in i AI-datacenter skulle teoretiskt sett kunna användas för andra samhällsprioriteringar, från att förbättra utbildningssystem och utöka förnybar energi till att åtgärda infrastrukturbrister. Motiveringen för denna massiva resursallokering beror på om de utlovade fördelarna faktiskt förverkligas.
Samtidigt har AI redan påvisbart positiva effekter. I Tyskland, enligt en IBM-studie från november 2025, rapporterar två tredjedelar av företagen betydande produktivitetsökningar genom AI. De områden med de största AI-relaterade produktivitetsökningarna inkluderar mjukvaruutveckling och IT, kundservice och automatisering av affärsprocesser. Ungefär en femtedel av företagen i Tyskland har redan uppnått sina ROI-mål genom AI-drivna produktivitetsinitiativ, och nästan hälften förväntar sig en avkastning på investeringen inom tolv månader.
Dessa siffror visar att AI verkligen skapar ekonomiskt värde, men de stöder också Krishnas argument att detta värde inte nödvändigtvis är ett resultat av strävan efter AGI med investeringar på biljoner dollar, utan snarare av mer riktade, specifika tillämpningar.
Det historiska perspektivet på teknologiska förändringar
För att sätta den nuvarande situationen i perspektiv är det bra att betrakta historiska paralleller. Dotcom-boomen i slutet av 1990-talet citeras ofta som en varnande historia. Vid den tiden flödade enorma summor pengar in i internetföretag, baserat på den berättigade tron att internet skulle vara omvälvande. Många av dessa investeringar visade sig vara missriktade, och när bubblan sprack år 2000 utplånades marknadsvärden för biljoner dollar.
Ändå visade sig den underliggande tekniken vara verkligt transformerande. Företag som Amazon och Google, som överlevde krisen, blev de dominerande krafterna i den globala ekonomin. Den infrastruktur som byggdes under högkonjunkturen, inklusive den som skapades av konkursföretag, lade grunden för den digitala ekonomin under de följande decennierna. I den meningen skulle man kunna hävda att även överdrivna investeringar i AI-infrastruktur skulle kunna vara fördelaktiga på lång sikt, även om många av de nuvarande aktörerna skulle gå omkull.
En viktig skillnad ligger dock i kapitalintensiteten. Första generationens internetföretag skulle kunna skala upp med relativt låga investeringar när den grundläggande infrastrukturen väl var på plats. En webbplats eller onlinetjänst, när den väl är utvecklad, skulle kunna nå miljontals användare med minimala extra kostnader. AI, särskilt som den praktiseras för närvarande, följer inte detta mönster. Varje fråga till en stor språkmodell medför betydande beräkningskostnader. Att skala AI-tjänster kräver proportionella ökningar av infrastrukturen, vilket i grunden förändrar ekonomin.
En annan historisk jämförelse är utvecklingen av elektricitet. När elektrisk energi först blev tillgänglig tog det årtionden för företag att lära sig att omforma sina produktionsprocesser för att fullt ut utnyttja de nya möjligheterna. Inledningsvis ersatte fabriker helt enkelt ångmaskiner med elmotorer, men behöll i övrigt sina gamla layouter och processer. De verkliga produktivitetsvinsterna kom först när ingenjörer och chefer lärde sig att designa fabriker från grunden och utnyttja flexibiliteten hos elektrisk energi.
Detsamma kan gälla för AI. Nuvarande tillämpningar kanske bara skrapar på ytan av vad som är möjligt, och verkliga förändringar kanske inte kommer förrän organisationer lär sig att fundamentalt omorganisera sig för att utnyttja AI-kapacitet. Detta skulle ta tid, möjligen år eller årtionden, och det är oklart om nuvarande investeringsdynamik har råd med det tålamodet.
Framtiden för AI -utvecklingen
Trots all skepticism och varningar kommer AI-utvecklingen att fortsätta. Frågan är inte om AI är viktig, utan vilken väg som är den mest lovande och ekonomiskt hållbara. Krishnas ingripande kan förstås som en vädjan om en omvärdering av strategin, inte som en uppmaning att stoppa AI-forskningen.
Den mest sannolika utvecklingen är en diversifiering av tillvägagångssätt. Medan vissa företag kommer att fortsätta investera kraftigt i att skala upp stora språkmodeller, kommer andra att utforska alternativa vägar. Neurosymboliska tillvägagångssätt, multimodala system, förkroppsligad intelligens, kontinuerligt lärande och andra forskningsinriktningar kommer att drivas parallellt. Genombrott inom hårdvara, från kvantberäkning till optiska beräkningsarkitekturer och neuromorfiska chips, skulle kunna förändra ekvationen.
En nyckelfaktor kommer att vara faktisk marknadsacceptans. Om företag och konsumenter är villiga att betala betydande summor för AI-tjänster, skulle även de höga infrastrukturkostnaderna kunna motiveras. Hittills är detta dock i stort sett en öppen fråga. ChatGPT och liknande tjänster har lockat miljontals användare, men villigheten att betala betydande summor för dem är begränsad. De flesta användare använder gratis eller kraftigt subventionerade versioner.
Inom företagssektorn är situationen något annorlunda. Här finns en påvisbar betalningsvilja för AI-lösningar som löser specifika affärsproblem. Microsoft rapporterar stark tillväxt inom sina AI-tjänster för företag. Frågan är om dessa intäktsströmmar kan växa tillräckligt snabbt för att motivera de massiva investeringarna.
Lämplig för detta:
Resultat från en flerdimensionell analys
De farhågor som Arvind Krishna tar upp i Decoder-podden berör kärnan i en av de mest betydande ekonomiska och teknologiska riskerna i historien. Hans argument är grundade i sunda ekonomiska principer och teknisk förståelse. Kombinationen av enorma kapitalkostnader, korta hårdvarulivscykler och den låga sannolikheten för att nuvarande tekniker leder till AGI (Automated Generating Intelligence) utgör ett övertygande argument mot den nuvarande investeringsstrategin.
Samtidigt är Krishnas ståndpunkt inte utan motargument. Förespråkare för massiva AI-investeringar skulle hävda att transformativa teknologier ofta kräver enorma initiala investeringar, att kostnaden per datorenhet kontinuerligt minskar, att nya affärsmodeller kommer att dyka upp som ännu inte är förutsebara, och att risken att hamna på efterkälken i en potentiellt världsförändrande teknologi är större än den ekonomiska risken med överdrivna investeringar.
Sanningen ligger sannolikt någonstans mellan dessa extrema positioner. AI är utan tvekan en viktig och transformerande teknik som kommer att skapa betydande ekonomiskt värde. Nuvarande språkmodeller och AI-applikationer uppvisar redan imponerande kapacitet och driver mätbara produktivitetsvinster inom många områden. Samtidigt är idén att enbart en uppskalning av nuvarande metoder kommer att leda till artificiell generell intelligens alltmer kontroversiell, även bland ledande AI-forskare.
Den ekonomiska analysen talar för sig själv. Den stora omfattningen av de nödvändiga investeringarna och behovet av att generera enorma vinster på kort tid utgör en exempellös utmaning. Även om Krishnas beräkningar är ens det minsta korrekta är det svårt att föreställa sig hur den nuvarande investeringsstrategin kan vara hållbar.
Detta betyder dock inte nödvändigtvis att katastrofen är nära förestående. Marknader har förmågan att anpassa sig. Investeringsflöden kan förändras, affärsmodeller kan utvecklas och tekniska genombrott kan fundamentalt förändra ekonomin. Teknikhistorien är full av exempel där initial skepticism motbevisades och till synes omöjliga utmaningar övervanns.
Det som verkar troligt är en period av konsolidering och omvärdering. Nuvarande tillväxttakter för AI-investeringar kan inte fortsätta i all oändlighet. Vid någon tidpunkt kommer investerare och företagsledare att vilja se bevis på faktisk avkastning. Företag som kan leverera övertygande användningsområden och påvisbart ekonomiskt värde kommer att blomstra. Andra kan behöva justera sina strategier eller lämna marknaden.
Krishnas ingripande fungerar som en viktig varning att iaktta försiktighet i en miljö som präglas av eufori och lusten att hänga med. Hans årtionden av erfarenhet inom tekniksektorn och hans position vid rodret för ett av världens äldsta och mest etablerade IT-företag ger tyngd åt hans ord. Tiden får utvisa om han har rätt. Vad som dock är säkert är att de frågor han ställer måste tas på allvar och diskuteras grundligt innan fler miljarder läggs på en strategi vars framgång är långt ifrån garanterad.
En ny dimension av digital transformation med 'Managed AI' (Artificial Intelligence) - Plattform & B2B-lösning | Xpert Consulting
En ny dimension av digital transformation med 'Managed AI' (Artificial Intelligence) – Plattform & B2B-lösning | Xpert Consulting - Bild: Xpert.Digital
Här får du lära dig hur ditt företag kan implementera skräddarsydda AI-lösningar snabbt, säkert och utan höga inträdesbarriärer.
En Managed AI-plattform är ditt heltäckande och bekymmersfria paket för artificiell intelligens. Istället för att behöva hantera komplex teknik, dyr infrastruktur och långa utvecklingsprocesser får du en nyckelfärdig lösning skräddarsydd efter dina behov från en specialiserad partner – ofta inom några dagar.
De viktigaste fördelarna i korthet:
⚡ Snabb implementering: Från idé till operativ tillämpning på dagar, inte månader. Vi levererar praktiska lösningar som skapar omedelbart värde.
🔒 Maximal datasäkerhet: Dina känsliga uppgifter stannar hos dig. Vi garanterar säker och korrekt behandling utan att dela data med tredje part.
💸 Ingen ekonomisk risk: Du betalar bara för resultat. Höga initiala investeringar i hårdvara, mjukvara eller personal elimineras helt.
🎯 Fokusera på din kärnverksamhet: Koncentrera dig på det du gör bäst. Vi hanterar hela den tekniska implementeringen, driften och underhållet av din AI-lösning.
📈 Framtidssäkert och skalbart: Din AI växer med dig. Vi säkerställer kontinuerlig optimering och skalbarhet och anpassar modellerna flexibelt till nya krav.
Mer om detta här:
Din globala marknadsförings- och affärsutvecklingspartner
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.

