AMI – Avancerad maskinintelligens – Slutet på skalning: Varför Yann LeCun inte längre tror på juridikexamina
Xpert pre-release
Röstval 📢
Publicerad den: 23 november 2025 / Uppdaterad den: 23 november 2025 – Författare: Konrad Wolfenstein

AMI – Avancerad maskinintelligens – Slutet på skalning: Varför Yann LeCun inte längre tror på juridikexamen – Bild: Xpert.Digital
Återvändsgränd istället för superintelligens: Varför Metas chefsvisionär nu slutar
600 miljarder för en missriktad strategi? "AI:s gudfader" satsar mot LLaMA, ChatGPT & Co.
Beskedet kom som en blixt genom teknikbranschen i november 2025. Yann LeCun, en av de tre grundarna till djupinlärning och chefsforskare på Meta, meddelade att han lämnade företaget efter tolv år för att grunda sin egen startup. Detta beslut är mycket mer än ett personligt karriärval av en enskild forskare. Det markerar en grundläggande vändpunkt i den globala artificiella intelligensbranschen och avslöjar det växande gapet mellan kortsiktiga marknadsintressen och långsiktiga vetenskapliga visioner.
LeCun, som fick Turingpriset 2018 tillsammans med Geoffrey Hinton och Yoshua Bengio, anses vara arkitekten bakom faltningsneurala nätverk, vilka idag utgör grunden för moderna bildbehandlingssystem. Hans avsked kommer vid en tidpunkt då hela branschen investerar hundratals miljarder dollar i stora språkmodeller, en teknik som LeCun i åratal har beskrivit som en fundamental återvändsgränd. Med sitt nya företag avser den nu 65-årige forskaren att sträva efter det han kallar Advanced Machine Intelligence, ett radikalt annorlunda tillvägagångssätt baserat på världsmodeller och utgående från fysisk perception, inte text.
De ekonomiska konsekvenserna av denna utveckling är enorma. Meta har själva investerat över 600 miljarder dollar i AI-infrastruktur under de senaste tre åren. OpenAI har nått en värdering på en halv biljon dollar, trots en årlig omsättning på endast tio miljarder dollar. Hela branschen har rört sig i en riktning som en av dess viktigaste pionjärer nu offentligt har beskrivit som en återvändsgränd. För att förstå de ekonomiska konsekvenserna av detta skifte måste man fördjupa sig i de tekniska, organisatoriska och finansiella strukturerna i den nuvarande AI-revolutionen.
Lämplig för detta:
Arkitekturen av en bubbla
Transformer-arkitekturen, som introducerades av forskare på Google 2017, har förändrat AI-landskapet i en aldrig tidigare skådad takt. Denna metod gjorde det möjligt att för första gången effektivt bearbeta massiva mängder text och träna språkmodeller med tidigare ouppnåeliga funktioner. OpenAI byggde vidare på denna grund med sin GPT-serie, som med ChatGPT i november 2022 för första gången demonstrerade för en bred publik vad dessa tekniker kunde åstadkomma. Responsen var explosiv. Inom några månader flödade tiotals miljarder dollar in i sektorn.
Sedan slutet av 2024 har det dock funnits allt fler tecken på att denna exponentiella utveckling närmar sig sina gränser. OpenAI har utvecklat efterföljaren till GPT-4, internt kallad Orion eller GPT-5, i över 18 månader. Företaget har enligt uppgift genomfört minst två stora träningsomgångar, som var och en kostat cirka 500 miljoner dollar. Resultaten har varit tankeväckande. Medan GPT-4 representerade ett massivt prestandasprång jämfört med GPT-3, är Orions förbättringar jämfört med GPT-4 marginella. Inom vissa områden, särskilt programmering, visar modellen praktiskt taget inga framsteg.
Denna utveckling motsäger fundamentalt skalningslagarna, de empiriska principer som fram tills nyligen vägledde hela branschen. Grundtanken var enkel: om man gör en modell större, använder mer data för träning och investerar mer datorkraft, följer prestandaökningen en förutsägbar effektfunktion. Denna princip verkade gälla universellt och motiverade de astronomiska investeringarna under de senaste åren. Nu visar det sig att dessa kurvor planar ut. Nästa fördubbling av investeringar ger inte längre den förväntade fördubblingen av prestanda.
Orsakerna till detta är många och tekniskt komplexa. Ett centralt problem är dataväggen. GPT-4 tränades med cirka 13 biljoner tokens, vilket i princip motsvarar hela det offentligt tillgängliga internet. För GPT-5 finns det helt enkelt inte tillräckligt med ny, högkvalitativ data. OpenAI har svarat genom att anställa mjukvaruutvecklare, matematiker och teoretiska fysiker för att generera ny data genom att skriva kod och lösa matematiska problem. Men även om 1 000 personer producerade 5 000 ord om dagen skulle det ta månader att generera bara en miljard tokens. Skalning med hjälp av mänskligt genererade data fungerar helt enkelt inte.
Som ett alternativ förlitar sig företag i allt högre grad på syntetisk data – det vill säga data som genereras av andra AI-modeller. Men här lurar en ny fara: modellkollaps. När modeller tränas rekursivt på data som genereras av andra modeller förstärks små fel över generationer. Resultatet är modeller som blir alltmer verklighetsfrånkopplade, och där minoritetsgrupper i data oproportionerligt försvinner. En studie publicerad i Nature 2024 visade att denna process sker förvånansvärt snabbt. Syntetiska data är därför inte ett universalmedel, utan medför snarare betydande risker.
Energiomställningen och tillväxtens gränser
Förutom databarriären finns det ett andra, ännu mer grundläggande hinder: energibarriären. Träning av GPT-3 förbrukade cirka 1 300 megawattimmar el, vilket motsvarar den årliga förbrukningen för 130 amerikanska hushåll. GPT-4 krävde uppskattningsvis 50 gånger så mycket, eller 65 000 megawattimmar. Datorkraften som krävs för att träna stora AI-modeller fördubblas ungefär var 100:e dag. Denna exponentiella kurva leder snabbt till fysiska begränsningar.
Datacenter som tränar och driver dessa modeller förbrukar redan lika mycket el som småstäder. Internationella energiorganet förutspår att datacenters elförbrukning kommer att öka med 80 procent till 2026, från 20 terawattimmar år 2022 till 36 terawattimmar år 2026. AI är den främsta drivkraften bakom denna tillväxt. Som jämförelse förbrukar en enda ChatGPT-fråga ungefär tio gånger mer energi än en Google-sökning. Med miljarder frågor per dag blir detta enorma mängder.
Denna utveckling tvingar teknikföretag att vidta drastiska åtgärder. Microsoft har redan tecknat avtal med kärnkraftsleverantörer. Meta, Amazon och Google investerar tillsammans över 1,3 biljoner dollar under de kommande åren för att bygga den nödvändiga infrastrukturen. Men dessa investeringar stöter på fysiska och politiska begränsningar. USA har helt enkelt inte tillräckligt med energiinfrastruktur för att driva de planerade AI-datacentren. Analytiker uppskattar att projekt värda 750 miljarder dollar kan försenas till 2030 på grund av flaskhalsar i energiinfrastrukturen.
Till detta kommer den geopolitiska dimensionen. AI-industrins energibehov intensifierar konkurrensen om resurser och ökar beroendet av fossila bränslen. Medan beslutsfattare kräver klimatneutralitet driver AI-industrin upp energiförbrukningen. Denna spänning kommer att förvärras under de kommande åren och kan leda till regulatoriska ingripanden som begränsar branschens tillväxt.
Den arkitektoniska väggen och LeCuns alternativ
Det tredje hindret är kanske det mest grundläggande: den arkitektoniska väggen. Yann LeCun har i åratal hävdat att Transformer-arkitekturen har inneboende begränsningar som inte kan övervinnas enbart genom skalning. Hans kritik fokuserar på det grundläggande sättet som stora språkmodeller fungerar. Dessa system är tränade att förutsäga nästa ord i en sekvens. De lär sig statistiska mönster i massiva textkorpusar, men de utvecklar inte en sann förståelse för kausalitet, fysikaliska lagar eller långsiktig planering.
LeCun gillar att illustrera problemet med en jämförelse: Ett fyraårigt barn har absorberat mer information om världen genom visuell perception än de bästa språkmodellerna har genom text. Ett barn förstår intuitivt att föremål inte bara försvinner, att tunga saker faller och att handlingar har konsekvenser. De har utvecklat en världsmodell, en intern representation av den fysiska verkligheten, som de använder för att göra förutsägelser och planera handlingar. Juridiska examensarbetare saknar denna grundläggande förmåga. De kan generera imponerande sammanhängande text, men de förstår inte världen.
Denna begränsning blir uppenbar gång på gång i praktiska tillämpningar. Om man ber GPT-4 att visualisera en roterande kub, misslyckas den med en uppgift som vilket barn som helst enkelt kan utföra. Med komplexa uppgifter som kräver flerstegsplanering misslyckas modellerna regelbundet. De kan inte på ett tillförlitligt sätt lära sig av fel eftersom varje prediktionsfel i token potentiellt kaskadförökar sig självt. Autoregressiva modeller har en grundläggande bräcklighet: ett fel tidigt i sekvensen kan förstöra hela resultatet.
LeCuns alternativ är världsmodeller baserade på Joint Embedding Predictive Architecture. Grundtanken är att AI-system inte ska lära sig genom textprediktion, utan snarare genom att förutsäga abstrakta representationer av framtida tillstånd. Istället för att generera pixel för pixel eller token för token, lär sig systemet en komprimerad, strukturerad representation av världen och kan använda denna för att mentalt simulera olika scenarier innan det agerar.
Under LeCuns ledning har Meta redan utvecklat flera implementeringar av denna metod. I-JEPA för bilder och V-JEPA för videor visar lovande resultat. Dessa modeller lär sig objektkomponenter på hög nivå och deras rumsliga relationer utan att förlita sig på intensiv datainsamling. De är också betydligt mer energieffektiva att träna än konventionella modeller. Visionen är att kombinera dessa metoder till hierarkiska system som kan fungera på olika abstraktionsnivåer och tidsskalor.
Den avgörande skillnaden ligger i inlärningsprocessens natur. Medan juridiklärare i huvudsak utför mönstermatchning på steroider, syftar världsmodeller till att förstå verklighetens struktur och kausalitet. Ett system med en robust världsmodell skulle kunna förutse konsekvenserna av sina handlingar utan att faktiskt behöva utföra dem. Det skulle kunna lära sig av några få exempel eftersom det förstår de underliggande principerna, inte bara ytliga korrelationer.
Organisatorisk dysfunktion och Metas existentiella kris
LeCuns avgång är dock inte enbart ett vetenskapligt beslut, utan också ett resultat av organisatorisk dysfunktion på Meta. I juni 2025 tillkännagav VD Mark Zuckerberg en massiv omstrukturering av AI-avdelningarna. Han grundade Meta Superintelligence Labs, en ny enhet med det uttalade målet att utveckla artificiell generell intelligens. Den leddes av Alexandr Wang, den 28-årige tidigare VD:n för Scale AI, ett dataförberedelseföretag. Meta investerade 14,3 miljarder dollar i Scale AI och rekryterade över 50 ingenjörer och forskare från konkurrenter.
Detta beslut vände upp och ner på den befintliga strukturen. LeCuns fundamentala AI-forskningsteam, som hade ägnat år åt att utveckla PyTorch och de första Llama-modellerna, marginaliserades. FAIR var inriktat på grundforskning med en tidshorisont på fem till tio år, medan de nya superintelligenslaboratorierna fokuserade på kortsiktig produktutveckling. Källor rapporterar om ökande kaos i Metas AI-avdelningar. Nyanställda topptalanger uttryckte frustration över byråkratin i ett stort företag, medan etablerade team såg sitt inflytande minska.
Situationen förvärrades på grund av flera omstruktureringar på bara sex månader. I augusti 2025 omorganiserades Superintelligence Labs igen, den här gången i fyra underenheter: ett mystiskt TBD Lab för nya modeller, ett produktteam, ett infrastrukturteam och FAIR. Ytterligare en våg av uppsägningar följde i oktober, med cirka 600 anställda som fick avgångsvederlag. Den angivna anledningen: att minska organisatorisk komplexitet och accelerera AI-utvecklingen.
Dessa ständiga omstruktureringar står i skarp kontrast till den relativa stabiliteten hos konkurrenter som OpenAI, Google och Anthropic. De pekar på en grundläggande osäkerhet hos Meta gällande rätt strategisk riktning. Zuckerberg har insett att Meta halkar efter i kampen om AI-dominans. Llama 4, som lanserades i april 2025, var en besvikelse. Medan Maverick-modellen visade god effektivitet, misslyckades den dramatiskt i längre sammanhang. Anklagelser dök upp om att Meta optimerade för benchmarks genom att specifikt träna modeller på vanliga testfrågor, vilket artificiellt blåste upp prestandan.
För LeCun blev situationen ohållbar. Hans vision om långsiktig grundforskning kolliderade med pressen att leverera kortsiktiga produktframgångar. Det faktum att han i praktiken var underordnad den betydligt yngre Wang bidrog sannolikt till hans beslut. I sitt avskedsmeddelande betonar LeCun att Meta kommer att förbli delägare i hans nya företag, men budskapet är tydligt: den oberoende forskning han anser vara nödvändig är inte längre möjlig inom företagsstrukturerna.
En ny dimension av digital transformation med 'Managed AI' (Artificial Intelligence) - Plattform & B2B-lösning | Xpert Consulting

En ny dimension av digital transformation med 'Managed AI' (Artificial Intelligence) – Plattform & B2B-lösning | Xpert Consulting - Bild: Xpert.Digital
Här får du lära dig hur ditt företag kan implementera skräddarsydda AI-lösningar snabbt, säkert och utan höga inträdesbarriärer.
En Managed AI-plattform är ditt heltäckande och bekymmersfria paket för artificiell intelligens. Istället för att behöva hantera komplex teknik, dyr infrastruktur och långa utvecklingsprocesser får du en nyckelfärdig lösning skräddarsydd efter dina behov från en specialiserad partner – ofta inom några dagar.
De viktigaste fördelarna i korthet:
⚡ Snabb implementering: Från idé till operativ tillämpning på dagar, inte månader. Vi levererar praktiska lösningar som skapar omedelbart värde.
🔒 Maximal datasäkerhet: Dina känsliga uppgifter stannar hos dig. Vi garanterar säker och korrekt behandling utan att dela data med tredje part.
💸 Ingen ekonomisk risk: Du betalar bara för resultat. Höga initiala investeringar i hårdvara, mjukvara eller personal elimineras helt.
🎯 Fokusera på din kärnverksamhet: Koncentrera dig på det du gör bäst. Vi hanterar hela den tekniska implementeringen, driften och underhållet av din AI-lösning.
📈 Framtidssäkert och skalbart: Din AI växer med dig. Vi säkerställer kontinuerlig optimering och skalbarhet och anpassar modellerna flexibelt till nya krav.
Mer om detta här:
Från hype till verklighet: Den förestående omvärderingen av AI-branschen
Blåsbildningens ekonomiska anatomi
Utvecklingen på Meta är symptomatisk för en bredare ekonomisk dynamik inom AI-branschen. Sedan ChatGPTs genombrott i slutet av 2022 har en exempellös investeringsboom utspelat sig. Bara under första kvartalet 2025 flödade 73,1 miljarder dollar till AI-startups, vilket motsvarar 58 procent av alla riskkapitalinvesteringar. OpenAI nådde en värdering på 500 miljarder dollar, vilket gjorde det till det första privata företaget att korsa denna tröskel utan att någonsin ha varit lönsamt.
Värderingarna är helt oproportionerliga i förhållande till de faktiska intäkterna. OpenAI genererade 10 miljarder dollar i årliga intäkter år 2025 med en värdering på 500 miljarder dollar, vilket resulterade i ett pris/försäljningsförhållande på 50. Som jämförelse uppnådde få företag sådana multiplar även under dotcom-bubblans höjdpunkt. Anthropic värderas till 170 miljarder dollar med intäkter på 2,2 miljarder dollar, ett P/E-tal på cirka 77. Dessa siffror indikerar en massiv övervärdering.
Särskilt problematisk är den cirkulära finansieringsstruktur som har utvecklats. Nvidia investerar 100 miljarder dollar i OpenAI, som i sin tur är skyldigt att köpa Nvidia-chips värda tiotals miljarder dollar. OpenAI gjorde liknande avtal med AMD värda tiotals miljarder dollar. Microsoft har investerat över 13 miljarder dollar i OpenAI och driver sin infrastruktur på Azure. Amazon investerade 8 miljarder dollar i Anthropic, som i gengäld använder AWS som sin primära molnplattform och använder Amazons egna AI-chips.
Dessa arrangemang påminner kusligt nog om den cirkulära finansieringen i slutet av 1990-talet, då teknikföretag sålde utrustning till varandra och bokförde transaktionerna som intäkter utan att generera något verkligt ekonomiskt värde. Analytiker talar om ett alltmer komplext och ogenomskinligt nät av affärsrelationer som ger bränsle åt en biljondollarboom. Parallellerna till dotcom-bubblan och finanskrisen 2008 är omisskännliga: ogenomskinliga och okonventionella finansieringsmekanismer som är svåra för investerare att förstå och bedöma.
Till detta kommer kapitalkoncentrationen. The Magnificent Seven, de sju största amerikanska teknikföretagen, ökade sin energiförbrukning med 19 procent under 2023, medan medianförbrukningen för S&P 500-företag stagnerade. Ungefär 80 procent av aktiemarknadsvinsterna i USA under 2025 kan hänföras till AI-relaterade företag. Nvidia ensamt blev den mest köpta aktien av privatpersoner, som investerade nästan 30 miljarder dollar i chiptillverkaren under 2024.
Denna extrema koncentration medför systemrisker. Om avkastningsförväntningarna visar sig orealistiska kan en marknadskrasch få långtgående konsekvenser. JPMorgan uppskattar att enbart AI-relaterade emissioner av investment grade-obligationer kan uppgå till 1,5 biljoner dollar år 2030. Mycket av denna skuld bygger på antagandet att AI-system kommer att generera massiva produktivitetsvinster. Om denna förväntan inte infrias hotar en kreditkris.
Lämplig för detta:
- Meta satsar allt på superintelligens: miljardinvesteringar, megadatacenter och en riskabel AI-kapplöpning
Talangkriget och de sociala omvälvningarna
De ekonomiska spänningarna manifesterar sig också på arbetsmarknaden. Förhållandet mellan lediga AI-tjänster och kvalificerade kandidater är 3,2 till 1. Det finns 1,6 miljoner lediga tjänster, men endast 518 000 kvalificerade sökande. Denna extrema brist driver lönerna till astronomiska höjder. AI-specialister kan öka sin årsinkomst med tiotusentals dollar genom att skaffa sig kunskaper i Python, TensorFlow eller specialiserade AI-ramverk.
Konkurrensen är brutal. Stora teknikföretag, välfinansierade startups och till och med regeringar tävlar om samma lilla grupp experter. OpenAI har upplevt en utvandring av chefer de senaste månaderna, inklusive medgrundaren Ilya Sutskever och teknikchefen Mira Murati. Många av dessa begåvade individer startar sina egna startups eller byter till konkurrenter. Meta rekryterar aggressivt från OpenAI, Anthropic och Google. Anthropic rekryterar från Meta och OpenAI.
Denna dynamik har flera konsekvenser. För det första fragmenterar den forskningslandskapet. Istället för att arbeta mot gemensamma mål konkurrerar små team i olika organisationer om samma genombrott. För det andra driver den upp kostnaderna. De enorma lönerna för AI-specialister är bara hållbara för välkapitaliserade företag, vilket exkluderar mindre aktörer från marknaden. För det tredje försenar den projekt. Företag rapporterar att lediga tjänster förblir otillsatta i månader, vilket stör utvecklingstidslinjerna.
De samhälleliga konsekvenserna sträcker sig långt bortom tekniksektorn. Om AI verkligen representerar nästa industriella revolution, då är en massiv omvälvning av arbetsmarknaden nära förestående. Till skillnad från den första industriella revolutionen, som främst påverkade fysiskt arbete, riktar sig AI mot kognitiva uppgifter. Inte bara enkel datainmatning och kundservice hotas, utan potentiellt även högkvalificerade yrken som programmerare, designers, jurister och journalister.
En studie av investeringsbranschen förutspår en minskning med fem procent av den arbetsbaserade inkomstandelen på grund av AI och big data. Detta är jämförbart med förändringarna under den industriella revolutionen, som orsakade en minskning på fem till 15 procent. Den avgörande skillnaden: den nuvarande omvandlingen sker över år, inte årtionden. Samhällen har lite tid att anpassa sig.
Testtidsberäkning och paradigmskiftet
Medan skalningslagar för förträning närmar sig sina gränser har ett nytt paradigm uppstått: testtidsbaserad beräkningsskalning. OpenAI:s o1-modeller visade att betydande prestandavinster är möjliga genom att investera mer datorkraft under inferens. Istället för att bara öka modellens storlek tillåter dessa system modellen att tänka på en fråga längre, använda flera metoder för att lösa den och självverifiera sina svar.
Forskning visar dock att detta paradigm också har begränsningar. Sekventiell skalning, där en modell itererar över samma problem flera gånger, leder inte till kontinuerliga förbättringar. Studier av modeller som Deepseeks R1 och QwQ visar att längre tankeprocesser inte automatiskt ger bättre resultat. Ofta korrigerar modellen korrekta svar på felaktiga, snarare än tvärtom. Den självrevideringsförmåga som krävs för effektiv sekventiell skalning är otillräckligt utvecklad.
Parallell skalning, där flera lösningar genereras samtidigt och den bästa väljs, visar bättre resultat. Även här minskar dock den marginella nyttan med varje fördubbling av den investerade datorkraften. Kostnadseffektiviteten sjunker snabbt. För kommersiella applikationer som behöver besvara miljontals frågor per dag är kostnaderna oöverkomliga.
Det verkliga genombrottet skulle kunna ligga i att kombinera olika tillvägagångssätt. Hybridarkitekturer som kombinerar transformatorer med tillståndsmodeller lovar att förena styrkorna hos båda. Tillståndsmodeller som Mamba erbjuder linjärt skalningsbeteende vid inferens, medan transformatorer utmärker sig på att fånga långsiktiga beroenden. Sådana hybridsystem skulle kunna balansera kostnad-kvalitetsekvationen.
Alternativa arkitekturer och framtiden efter Transformers
Vid sidan av världsmodeller framträder ett antal alternativa arkitekturer som kan utmana Transformers dominans. Tillståndsrumsmodeller har gjort betydande framsteg de senaste åren. S4, Mamba och Hyena visar att effektivt långkontextresonemang med linjär komplexitet är möjligt. Medan Transformers skalar kvadratiskt med sekvenslängd, uppnår SSM linjär skalning i både träning och inferens.
Dessa effektivitetsvinster kan vara avgörande när AI-system distribueras i produktionsmiljöer. Kostnaden för inferens har ofta underskattats. Utbildning är en engångsinvestering, men inferens sker kontinuerligt. ChatGPT är aldrig offline. Med miljarder dagliga frågor leder även små effektivitetsförbättringar till massiva kostnadsbesparingar. En modell som kräver hälften så mycket datorkraft för samma kvalitet har en enorm konkurrensfördel.
Utmaningen ligger i mognaden av dessa teknologier. Transformatorer har ett försprång på nästan åtta år och ett enormt ekosystem av verktyg, bibliotek och expertis. Alternativa arkitekturer måste inte bara vara tekniskt överlägsna utan också praktiskt användbara. Teknikhistorien är full av tekniskt överlägsna lösningar som misslyckades på marknaden eftersom ekosystemet saknades.
Intressant nog förlitar sig även den kinesiska konkurrensen på alternativa metoder. DeepSeek V3, en modell med öppen källkod och 671 miljarder parametrar, använder en arkitektur med expertmix där endast 37 miljarder parametrar aktiveras per token. Modellen uppnår jämförbar prestanda med västerländska konkurrenter i prestandatester, men tränades till en bråkdel av kostnaden. Träningstiden var bara 2,788 miljoner H800 GPU-timmar, betydligt mindre än jämförbara modeller.
Denna utveckling visar att tekniskt ledarskap inte nödvändigtvis ligger hos de ekonomiskt mest mäktiga aktörerna. Smarta arkitekturbeslut och optimeringar kan kompensera för resursfördelar. För det globala AI-landskapet innebär detta ökad multipolaritet. Kina, Europa och andra regioner utvecklar sina egna metoder som inte bara är kopior av västerländska modeller.
Omvärderingen och den oundvikliga baksmällan
Konvergensen av alla dessa faktorer tyder på en förestående omvärdering av AI-branschen. Nuvarande värderingar baseras på antagandet om kontinuerlig exponentiell tillväxt, både vad gäller modellprestanda och kommersiellt införande. Båda antagandena blir alltmer ifrågasättbara. Modellprestanda stagnerar, medan kostnaderna fortsätter att skjuta i höjden. Även om det kommersiella införandet växer, är intäktsgenereringen fortfarande utmanande.
OpenAI, med sin värdering på en halv biljon dollar, skulle behöva växa till minst 100 miljarder dollar i årliga intäkter och bli lönsam under de kommande åren för att motivera sin värdering. Det skulle innebära en tiofaldig ökning på bara några år. Som jämförelse tog det Google över ett decennium att växa från 10 miljarder dollar till 100 miljarder dollar i intäkter. Förväntningarna på AI-företag är orealistiskt höga.
Analytiker varnar för en potentiell sprängning av AI-bubblan. Parallellerna till dotcom-bubblan är uppenbara. Då, liksom nu, finns det revolutionerande teknologi med enorm potential. Då, liksom nu, finns det irrationellt uppblåsta värderingar och cirkulära finansieringsstrukturer. Då, liksom nu, rättfärdigar investerare absurda värderingar med att hävda att teknologin kommer att förändra allt och att traditionella värderingsmått inte längre är tillämpliga.
Den avgörande skillnaden: Till skillnad från många dotcom-företag har dagens AI-företag faktiskt fungerande produkter med verkligt värde. ChatGPT är inte vaporware, utan en teknik som används av miljontals människor dagligen. Frågan är inte om AI är värdefull, utan om den är tillräckligt värdefull för att motivera nuvarande värderingar. Svaret är troligtvis nej.
När omvärderingen kommer kommer det att bli smärtsamt. Riskkapitalfonder har investerat 70 procent av sitt kapital i AI. Pensionsfonder och institutionella investerare är massivt exponerade. Ett betydande fall i AI-värderingarna skulle få långtgående ekonomiska konsekvenser. Företag som är beroende av billig finansiering skulle plötsligt få svårt att skaffa kapital. Projekt skulle stoppas och personal skulle sägas upp.
Det långsiktiga perspektivet och vägen framåt
Trots dessa dystra kortsiktiga utsikter är den långsiktiga potentialen för artificiell intelligens fortfarande enorm. Den nuvarande hypen förändrar inte teknikens grundläggande betydelse. Frågan är inte om, utan hur och när AI kommer att infria sitt löfte. LeCuns övergång från kortsiktig produktutveckling till långsiktig grundforskning visar vägen.
Nästa generations AI-system kommer sannolikt att se annorlunda ut än dagens LLM:er. De kommer att kombinera element från världsmodeller, alternativa arkitekturer och nya träningsparadigmer. De kommer att förlita sig mindre på brute-force-skalning och mer på effektiva, strukturerade representationer. De kommer att lära sig av den fysiska världen, inte bara text. Och de kommer att förstå kausalitet, inte bara korrelationer.
Denna vision kräver emellertid tid, tålamod och friheten att bedriva grundforskning. Just dessa förutsättningar är svåra att hitta i den rådande marknadsmiljön. Pressen att leverera snabb kommersiell framgång är enorm. Kvartalsrapporter och utvärderingsomgångar dominerar agendan. Långsiktiga forskningsprogram, som kan ta år att ge resultat, är svåra att rättfärdiga.
LeCuns beslut att grunda en startup vid 65 års ålder är ett anmärkningsvärt uttalande. Han kunde ha gått i pension med all heder och en garanterad plats i historien. Istället har han valt den svåra vägen att följa en vision som förkastats av branschens mainstream. Meta kommer att förbli en partner, vilket innebär att hans företag kommer att ha resurser, åtminstone inledningsvis. Men dess verkliga framgång kommer att bero på om han under de kommande åren kan visa att avancerad maskinintelligens verkligen är överlägsen.
Transformationen kommer att ta år. Även om LeCun har rätt och världsmodellerna är fundamentalt överlägsna, behöver de fortfarande utvecklas, optimeras och industrialiseras. Ekosystemet behöver byggas. Utvecklare behöver lära sig att använda de nya verktygen. Företag behöver migrera från juridiska masterprogram till de nya systemen. Dessa övergångsfaser har historiskt sett alltid varit smärtsamma.
Från hype till verklighet: Den långsiktiga handlingsplanen inom AI
Yann LeCuns avsked från Meta markerar mer än bara en personalförändring. Det symboliserar den grundläggande spänningen mellan vetenskaplig vision och kommersiell pragmatism, mellan långsiktig innovation och kortsiktiga marknadskrav. Den nuvarande AI-revolutionen befinner sig vid en vändpunkt. De enkla framgångarna med skalning har uttömts. Nästa steg kommer att bli svårare, dyrare och osäkrare.
För investerare innebär det att de orimligt höga värderingarna av nuvarande AI-förespråkare behöver granskas kritiskt. För företag innebär det att hoppet om snabba produktivitetsmirakel genom AI kan bli besviket. För samhället innebär det att omvandlingen kommer att bli långsammare och mer ojämn än vad hajpvågen antyder.
Samtidigt förblir grunden robust. AI är inte en övergående modefluga, utan en grundläggande teknik som kommer att förändra praktiskt taget alla sektorer av ekonomin på lång sikt. Parallellerna till den industriella revolutionen är träffande. Precis som då kommer det att finnas vinnare och förlorare, överdrifter och korrigeringar, omvälvningar och justeringar. Frågan är inte om transformatorarkitekturen har nått slutet av sin kapacitet, utan hur nästa fas kommer att se ut och vem som kommer att forma den.
LeCuns satsning på avancerad maskinintelligens och världsmodeller är djärv, men den kan visa sig vara långsiktig. Om fem år vet vi om det var rätt beslut att bryta sig loss från mainstreamen eller om branschen har hållit kursen. De kommande åren kommer att vara avgörande för den långsiktiga utvecklingen av artificiell intelligens och därmed för den ekonomiska och samhälleliga framtiden.
Vår amerikanska expertis inom affärsutveckling, försäljning och marknadsföring

Vår amerikanska expertis inom affärsutveckling, försäljning och marknadsföring - Bild: Xpert.Digital
Branschfokus: B2B, digitalisering (från AI till XR), maskinteknik, logistik, förnybar energi och industri
Mer om detta här:
Ett ämnesnav med insikter och expertis:
- Kunskapsplattform om global och regional ekonomi, innovation och branschspecifika trender
- Insamling av analyser, impulser och bakgrundsinformation från våra fokusområden
- En plats för expertis och information om aktuell utveckling inom näringsliv och teknologi
- Ämnesnav för företag som vill lära sig om marknader, digitalisering och branschinnovationer
Din globala marknadsförings- och affärsutvecklingspartner
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.
☑ SME -stöd i strategi, rådgivning, planering och implementering
☑ skapande eller omjustering av den digitala strategin och digitaliseringen
☑ Expansion och optimering av de internationella försäljningsprocesserna
☑ Globala och digitala B2B -handelsplattformar
☑ Pioneer Business Development / Marketing / PR / Measure
🎯🎯🎯 Dra nytta av Xpert.Digitals omfattande, femfaldiga expertis i ett heltäckande tjänstepaket | BD, R&D, XR, PR och optimering av digital synlighet

Dra nytta av Xpert.Digitals omfattande, femfaldiga expertis i ett heltäckande tjänstepaket | FoU, XR, PR och optimering av digital synlighet - Bild: Xpert.Digital
Xpert.Digital har djup kunskap i olika branscher. Detta gör att vi kan utveckla skräddarsydda strategier som är anpassade efter kraven och utmaningarna för ditt specifika marknadssegment. Genom att kontinuerligt analysera marknadstrender och bedriva branschutveckling kan vi agera med framsyn och erbjuda innovativa lösningar. Med kombinationen av erfarenhet och kunskap genererar vi mervärde och ger våra kunder en avgörande konkurrensfördel.
Mer om detta här:





















