
AMI – Geavanceerde machine-intelligentie – Het einde van schaalvergroting: waarom Yann LeCun niet langer in LLM's gelooft – Afbeelding: Xpert.Digital
Doodlopende weg in plaats van superintelligentie: waarom de belangrijkste visionair van Meta nu vertrekt
600 miljard voor een misplaatste aanpak? De "Godfather of AI" zet in tegen LLaMA, ChatGPT & Co.
De aankondiging sloeg in november 2025 als een bom in de technologiesector. Yann LeCun, een van de drie grondleggers van deep learning en hoofdwetenschapper bij Meta, kondigde na twaalf jaar zijn vertrek aan om zijn eigen startup op te richten. Deze beslissing is veel meer dan een persoonlijke carrièrekeuze van één enkele wetenschapper. Het markeert een fundamenteel keerpunt in de wereldwijde kunstmatige intelligentiesector en onthult de groeiende kloof tussen marktbelangen op de korte termijn en wetenschappelijke visie op de lange termijn.
LeCun, die in 2018 samen met Geoffrey Hinton en Yoshua Bengio de Turing Award ontving, wordt beschouwd als de architect van convolutionele neurale netwerken, die tegenwoordig de basis vormen van moderne beeldverwerkingssystemen. Zijn vertrek komt op een moment dat de hele industrie honderden miljarden dollars investeert in grote taalmodellen, een technologie die LeCun al jaren als een fundamenteel doodlopende weg beschreef. Met zijn nieuwe bedrijf wil de nu 65-jarige wetenschapper zich richten op wat hij Advanced Machine Intelligence noemt, een radicaal andere aanpak gebaseerd op wereldmodellen en beginnend met fysieke waarneming, niet met tekst.
De economische gevolgen van deze ontwikkeling zijn enorm. Meta zelf heeft de afgelopen drie jaar meer dan 600 miljard dollar geïnvesteerd in AI-infrastructuur. OpenAI heeft een waardering bereikt van een half biljoen dollar, ondanks een jaarlijkse omzet van slechts tien miljard dollar. De hele sector is een richting ingeslagen die een van de belangrijkste pioniers nu publiekelijk als een doodlopende weg heeft omschreven. Om de economische gevolgen van deze verschuiving te begrijpen, is het nodig om diep in de technische, organisatorische en financiële structuren van de huidige AI-revolutie te duiken.
Geschikt hiervoor:
De architectuur van een bubbel
De Transformer-architectuur, geïntroduceerd door onderzoekers van Google in 2017, heeft het AI-landschap in een ongekend tempo getransformeerd. Deze aanpak maakte het voor het eerst mogelijk om enorme hoeveelheden tekst efficiënt te verwerken en taalmodellen te trainen met voorheen onhaalbare mogelijkheden. OpenAI bouwde voort op deze basis met zijn GPT-serie, die met ChatGPT in november 2022 voor het eerst aan een groot publiek liet zien wat deze technologieën konden bereiken. De respons was explosief. Binnen enkele maanden stroomden er tientallen miljarden dollars de sector in.
Sinds eind 2024 zijn er echter steeds meer tekenen dat deze exponentiële ontwikkeling zijn grenzen bereikt. OpenAI is al meer dan 18 maanden bezig met de ontwikkeling van de opvolger van GPT-4, intern aangeduid als Orion of GPT-5. Het bedrijf heeft naar verluidt minstens twee grote trainingsruns uitgevoerd, elk met een kostprijs van ongeveer $ 500 miljoen. De resultaten waren ontnuchterend. Hoewel GPT-4 een enorme prestatieverbetering ten opzichte van GPT-3 betekende, zijn de verbeteringen van Orion ten opzichte van GPT-4 marginaal. Op sommige gebieden, met name programmeren, vertoont het model vrijwel geen vooruitgang.
Deze ontwikkeling is fundamenteel in tegenspraak met de schaalwetten, die empirische principes die tot voor kort de hele industrie beheersten. Het basisidee was simpel: als je een model groter maakt, meer data gebruikt voor training en meer rekenkracht investeert, volgt de prestatieverbetering een voorspelbare machtsfunctie. Dit principe leek universeel te gelden en rechtvaardigde de astronomische investeringen van de afgelopen jaren. Nu blijkt dat deze curven afvlakken. De volgende verdubbeling van de investering levert niet langer de verwachte verdubbeling van de prestaties op.
De redenen hiervoor zijn talrijk en technisch complex. Een belangrijk probleem is de datamuur. GPT-4 is getraind met ongeveer 13 biljoen tokens, wat in feite het volledige openbare internet is. Voor GPT-5 is er simpelweg niet genoeg nieuwe, hoogwaardige data. OpenAI heeft hierop gereageerd door softwareontwikkelaars, wiskundigen en theoretisch natuurkundigen in te huren om nieuwe data te genereren door code te schrijven en wiskundige problemen op te lossen. Maar zelfs als 1000 mensen 5000 woorden per dag zouden produceren, zou het maanden duren om slechts één miljard tokens te genereren. Opschalen met door mensen gegenereerde data werkt gewoon niet.
Als alternatief vertrouwen bedrijven steeds meer op synthetische data – dat wil zeggen data die gegenereerd is door andere AI-modellen. Maar hier schuilt een nieuw gevaar: modelcrash. Wanneer modellen recursief worden getraind op data die door andere modellen zijn gegenereerd, worden kleine fouten over generaties heen steeds groter. Het resultaat is dat modellen steeds verder afdwalen van de realiteit en dat minderheidsgroepen in de data onevenredig verdwijnen. Een studie gepubliceerd in Nature in 2024 toonde aan dat dit proces verrassend snel verloopt. Synthetische data zijn dus geen wondermiddel, maar brengen aanzienlijke risico's met zich mee.
De energietransitie en de grenzen aan de groei
Naast de databarrière is er een tweede, nog fundamentelere barrière: de energiebarrière. De training van GPT-3 verbruikte ongeveer 1300 megawattuur aan elektriciteit, wat overeenkomt met het jaarlijkse verbruik van 130 Amerikaanse huishoudens. GPT-4 vereiste naar schatting 50 keer zoveel, oftewel 65.000 megawattuur. De rekenkracht die nodig is om grote AI-modellen te trainen, verdubbelt ongeveer elke 100 dagen. Deze exponentiële curve leidt al snel tot fysieke beperkingen.
Datacenters die deze modellen trainen en gebruiken, verbruiken nu al evenveel elektriciteit als kleine steden. Het Internationaal Energieagentschap voorspelt dat het elektriciteitsverbruik van datacenters tegen 2026 met 80 procent zal stijgen, van 20 terawattuur in 2022 tot 36 terawattuur in 2026. AI is de belangrijkste aanjager van deze groei. Ter vergelijking: een enkele ChatGPT-zoekopdracht verbruikt ongeveer tien keer meer energie dan een Google-zoekopdracht. Met miljarden zoekopdrachten per dag loopt dit op tot enorme hoeveelheden.
Deze ontwikkeling dwingt technologiebedrijven tot drastische maatregelen. Microsoft heeft al contracten gesloten met leveranciers van kernenergie. Meta, Amazon en Google investeren de komende jaren samen meer dan 1,3 biljoen dollar in de aanleg van de benodigde infrastructuur. Maar deze investeringen lopen tegen fysieke en politieke grenzen aan. De VS beschikt simpelweg niet over voldoende energie-infrastructuur om de geplande AI-datacenters van stroom te voorzien. Analisten schatten dat projecten ter waarde van 750 miljard dollar tegen 2030 vertraging kunnen oplopen als gevolg van knelpunten in de energie-infrastructuur.
Daarbij komt nog de geopolitieke dimensie. De energievraag van de AI-industrie intensiveert de concurrentie om grondstoffen en vergroot de afhankelijkheid van fossiele brandstoffen. Terwijl beleidsmakers klimaatneutraliteit eisen, drijft de AI-industrie het energieverbruik op. Deze spanning zal de komende jaren toenemen en kan leiden tot regelgevende interventies die de groei van de sector beperken.
De architectonische muur en het alternatief van LeCun
De derde barrière is misschien wel de meest fundamentele: de architectonische muur. Yann LeCun betoogt al jaren dat de Transformer-architectuur inherente beperkingen heeft die niet zomaar door schaalvergroting kunnen worden overwonnen. Zijn kritiek richt zich op de fundamentele manier waarop Large Language Models werken. Deze systemen zijn getraind om het volgende woord in een reeks te voorspellen. Ze leren statistische patronen in enorme tekstcorpora, maar ontwikkelen geen echt begrip van causaliteit, natuurkundige wetten of langetermijnplanning.
LeCun illustreert het probleem graag met een vergelijking: een vierjarig kind heeft meer informatie over de wereld opgenomen via visuele waarneming dan de beste taalmodellen via tekst. Een kind begrijpt intuïtief dat objecten niet zomaar verdwijnen, dat zware dingen vallen en dat handelingen gevolgen hebben. Ze hebben een wereldmodel ontwikkeld, een interne representatie van de fysieke realiteit, die ze gebruiken om voorspellingen te doen en handelingen te plannen. LLM's missen dit fundamentele vermogen. Ze kunnen indrukwekkend coherente teksten genereren, maar ze begrijpen de wereld niet.
Deze beperking wordt steeds weer duidelijk in praktische toepassingen. Als je GPT-4 vraagt om een roterende kubus te visualiseren, faalt het in een taak die elk kind gemakkelijk kan volbrengen. Bij complexe taken die meerstapsplanning vereisen, falen de modellen regelmatig. Ze kunnen niet betrouwbaar leren van fouten, omdat elke fout in de tokenvoorspelling zichzelf potentieel versterkt. Autoregressieve modellen hebben een fundamentele kwetsbaarheid: een fout vroeg in de reeks kan het hele resultaat ruïneren.
LeCuns alternatief zijn wereldmodellen gebaseerd op Joint Embedding Predictive Architecture. Het basisidee is dat AI-systemen niet zouden moeten leren door tekstvoorspelling, maar door abstracte representaties van toekomstige toestanden te voorspellen. In plaats van pixel voor pixel of token voor token te genereren, leert het systeem een gecomprimeerde, gestructureerde representatie van de wereld en kan deze gebruiken om mentaal verschillende scenario's te simuleren voordat het actie onderneemt.
Onder leiding van LeCun heeft Meta al verschillende implementaties van deze aanpak ontwikkeld. I-JEPA voor afbeeldingen en V-JEPA voor video's laten veelbelovende resultaten zien. Deze modellen leren hoogwaardige objectcomponenten en hun ruimtelijke relaties zonder afhankelijk te zijn van intensieve dataverzameling. Ze zijn ook aanzienlijk energiezuiniger om te trainen dan conventionele modellen. De visie is om deze benaderingen te combineren tot hiërarchische systemen die op verschillende abstractieniveaus en tijdschalen kunnen werken.
Het cruciale verschil schuilt in de aard van het leerproces. Terwijl LLM's in wezen patroonherkenning op hoge snelheid uitvoeren, zijn wereldmodellen erop gericht de structuur en causaliteit van de werkelijkheid te begrijpen. Een systeem met een robuust wereldmodel zou de gevolgen van zijn acties kunnen voorzien zonder ze daadwerkelijk uit te voeren. Het zou van een paar voorbeelden kunnen leren omdat het de onderliggende principes begrijpt, niet alleen oppervlakkige correlaties.
Organisatorische disfunctie en de existentiële crisis van Meta
Het vertrek van LeCun is echter niet alleen een wetenschappelijke beslissing, maar ook het gevolg van een disfunctionele organisatie bij Meta. In juni 2025 kondigde CEO Mark Zuckerberg een ingrijpende herstructurering van de AI-afdelingen aan. Hij richtte Meta Superintelligence Labs op, een nieuwe afdeling met als doel de ontwikkeling van kunstmatige intelligentie (AI). De afdeling werd geleid door Alexandr Wang, de 28-jarige voormalig CEO van Scale AI, een bedrijf voor datavoorbereiding. Meta investeerde $ 14,3 miljard in Scale AI en rekruteerde meer dan 50 ingenieurs en onderzoekers van concurrenten.
Deze beslissing zette de bestaande structuur op zijn kop. Het Fundamental AI Research Team van LeCun, dat jarenlang PyTorch en de eerste Llama-modellen had ontwikkeld, raakte gemarginaliseerd. FAIR richtte zich op fundamenteel onderzoek met een tijdshorizon van vijf tot tien jaar, terwijl de nieuwe superintelligentielabs zich richtten op productontwikkeling op de korte termijn. Bronnen melden toenemende chaos binnen de AI-afdelingen van Meta. Nieuw aangenomen toptalenten uitten hun frustratie over de bureaucratie van een groot bedrijf, terwijl gevestigde teams hun invloed zagen afnemen.
De situatie verslechterde door verschillende herstructureringen in slechts zes maanden tijd. In augustus 2025 werd Superintelligence Labs opnieuw gereorganiseerd, ditmaal in vier subunits: een mysterieus TBD Lab voor nieuwe modellen, een productteam, een infrastructuurteam en FAIR. In oktober volgde een nieuwe ontslaggolf, waarbij ongeveer 600 medewerkers een ontslagvergoeding kregen. De opgegeven reden: het verminderen van de organisatorische complexiteit en het versnellen van de AI-ontwikkeling.
Deze voortdurende herstructureringen staan in schril contrast met de relatieve stabiliteit van concurrenten zoals OpenAI, Google en Anthropic. Ze wijzen op een fundamentele onzekerheid bij Meta over de juiste strategische richting. Zuckerberg heeft erkend dat Meta achterloopt in de race om AI-dominantie. Llama 4, gelanceerd in april 2025, was een teleurstelling. Hoewel het Maverick-model een goede efficiëntie liet zien, faalde het dramatisch in langere contexten. Er kwamen beschuldigingen naar boven dat Meta benchmarks optimaliseerde door modellen specifiek te trainen op veelvoorkomende testvragen, waardoor de prestaties kunstmatig werden opgeblazen.
Voor LeCun werd de situatie onhoudbaar. Zijn visie op fundamenteel onderzoek op de lange termijn botste met de druk om op korte termijn productsuccessen te boeken. Het feit dat hij feitelijk ondergeschikt was aan de aanzienlijk jongere Wang speelde waarschijnlijk een rol in zijn beslissing. In zijn afscheidsmemorandum benadrukt LeCun dat Meta partner blijft in zijn nieuwe bedrijf, maar de boodschap is duidelijk: het onafhankelijke onderzoek dat hij essentieel acht, is binnen de bedrijfsstructuren niet langer mogelijk.
Een nieuwe dimensie van digitale transformatie met 'Managed AI' (Artificial Intelligence) - Platform & B2B-oplossing | Xpert Consulting
Een nieuwe dimensie van digitale transformatie met 'Managed AI' (Artificial Intelligence) – Platform & B2B-oplossing | Xpert Consulting - Afbeelding: Xpert.Digital
Hier leert u hoe uw bedrijf snel, veilig en zonder hoge toetredingsdrempels maatwerk AI-oplossingen kan implementeren.
Een Managed AI Platform is uw complete, zorgeloze pakket voor kunstmatige intelligentie. In plaats van complexe technologie, dure infrastructuur en langdurige ontwikkelprocessen, ontvangt u van een gespecialiseerde partner een kant-en-klare oplossing op maat – vaak binnen enkele dagen.
De belangrijkste voordelen in één oogopslag:
⚡ Snelle implementatie: van idee tot operationele toepassing in dagen, niet maanden. Wij leveren praktische oplossingen die direct waarde creëren.
🔒 Maximale gegevensbeveiliging: uw gevoelige gegevens blijven bij u. Wij garanderen een veilige en conforme verwerking zonder gegevens met derden te delen.
💸 Geen financieel risico: u betaalt alleen voor resultaten. Hoge initiële investeringen in hardware, software of personeel vervallen volledig.
🎯 Focus op uw kernactiviteiten: concentreer u op waar u goed in bent. Wij verzorgen de volledige technische implementatie, exploitatie en het onderhoud van uw AI-oplossing.
📈 Toekomstbestendig & Schaalbaar: Uw AI groeit met u mee. Wij zorgen voor continue optimalisatie en schaalbaarheid en passen de modellen flexibel aan nieuwe eisen aan.
Meer hierover hier:
Van hype naar realiteit: de dreigende herwaardering van de AI-industrie
De economische anatomie van blaarvorming
De ontwikkelingen bij Meta zijn symptomatisch voor een bredere economische dynamiek in de AI-industrie. Sinds de doorbraak van ChatGPT eind 2022 heeft zich een ongekende investeringshausse ontvouwd. Alleen al in het eerste kwartaal van 2025 stroomde er $ 73,1 miljard naar AI-startups, goed voor 58 procent van alle durfkapitaalinvesteringen. OpenAI bereikte een waardering van $ 500 miljard en was daarmee het eerste particuliere bedrijf dat deze drempel overschreed zonder ooit winstgevend te zijn geweest.
De waarderingen staan ver buiten verhouding tot de werkelijke omzet. OpenAI genereerde in 2025 een jaaromzet van $ 10 miljard met een waardering van $ 500 miljard, wat resulteerde in een koers-omzetverhouding van 50. Ter vergelijking: zelfs op het hoogtepunt van de dotcombubbel behaalden weinig bedrijven zulke veelvouden. Anthropic wordt gewaardeerd op $ 170 miljard met een omzet van $ 2,2 miljard, een koers-winstverhouding van ongeveer 77. Deze cijfers wijzen op een enorme overwaardering.
Bijzonder problematisch is de circulaire financieringsstructuur die zich heeft ontwikkeld. Nvidia investeert $ 100 miljard in OpenAI, dat op zijn beurt verplicht is om Nvidia-chips ter waarde van tientallen miljarden dollars aan te schaffen. OpenAI sloot soortgelijke deals met AMD ter waarde van tientallen miljarden dollars. Microsoft heeft meer dan $ 13 miljard geïnvesteerd in OpenAI en host zijn infrastructuur op Azure. Amazon investeerde $ 8 miljard in Anthropic, dat op zijn beurt AWS als primair cloudplatform gebruikt en gebruikmaakt van Amazons eigen AI-chips.
Deze regelingen doen griezelig denken aan de circulaire financiering van eind jaren negentig, toen technologiebedrijven apparatuur aan elkaar verkochten en de transacties als omzet boekten zonder enige reële economische waarde te genereren. Analisten spreken van een steeds complexer en ondoorzichtiger web van zakelijke relaties dat een miljardenhausse aanwakkert. De parallellen met de dotcomzeepbel en de financiële crisis van 2008 zijn onmiskenbaar: ondoorzichtige en onconventionele financieringsmechanismen die voor investeerders moeilijk te begrijpen en te beoordelen zijn.
Daarbij komt nog de concentratie van kapitaal. De Magnificent Seven, de zeven grootste Amerikaanse technologiebedrijven, verhoogden hun energieverbruik met 19 procent in 2023, terwijl het mediane verbruik van S&P 500-bedrijven stagneerde. Ongeveer 80 procent van de beurswinsten in de VS in 2025 was toe te schrijven aan AI-gerelateerde bedrijven. Nvidia alleen al werd het meest gekochte aandeel door particuliere beleggers, die in 2024 bijna $ 30 miljard in de chipfabrikant investeerden.
Deze extreme concentratie brengt systeemrisico's met zich mee. Als de rendementsverwachtingen onrealistisch blijken, kan een marktcrash verstrekkende gevolgen hebben. JPMorgan schat dat alleen al de uitgifte van investment-grade obligaties met AI-gerelateerde waarde tegen 2030 $ 1,5 biljoen zou kunnen bedragen. Een groot deel van deze schuld is gebaseerd op de aanname dat AI-systemen enorme productiviteitswinsten zullen genereren. Mocht deze verwachting uitblijven, dan dreigt een kredietcrisis.
Geschikt hiervoor:
- Meta zet alles in op superintelligentie: miljardeninvesteringen, megadatacentra en een riskante AI-race
De talentenoorlog en de maatschappelijke omwentelingen
De economische spanningen manifesteren zich ook op de arbeidsmarkt. De verhouding tussen openstaande AI-posities en gekwalificeerde kandidaten is 3,2 op 1. Er zijn 1,6 miljoen openstaande vacatures, maar slechts 518.000 gekwalificeerde sollicitanten. Dit extreme tekort drijft de salarissen tot astronomische hoogten op. AI-specialisten kunnen tienduizenden dollars aan hun jaarinkomen toevoegen door vaardigheden te verwerven in Python, TensorFlow of gespecialiseerde AI-frameworks.
De concurrentie is moordend. Grote techbedrijven, goed gefinancierde startups en zelfs overheden strijden om dezelfde kleine groep experts. OpenAI heeft de afgelopen maanden een uittocht van leidinggevenden meegemaakt, waaronder medeoprichter Ilya Sutskever en Chief Technology Officer Mira Murati. Veel van deze getalenteerde mensen starten hun eigen startup of stappen over naar concurrenten. Meta werft actief bij OpenAI, Anthropic en Google. Anthropic werft bij Meta en OpenAI.
Deze dynamiek heeft verschillende gevolgen. Ten eerste versnippert het het onderzoekslandschap. In plaats van te werken aan gemeenschappelijke doelen, concurreren kleine teams in verschillende organisaties om dezelfde doorbraken. Ten tweede drijft het de kosten op. De enorme salarissen voor AI-specialisten zijn alleen houdbaar voor goed gekapitaliseerde bedrijven, waardoor kleinere spelers van de markt worden uitgesloten. Ten derde vertraagt het projecten. Bedrijven melden dat openstaande vacatures maandenlang onvervuld blijven, waardoor de ontwikkelingstijdlijnen worden verstoord.
De maatschappelijke implicaties reiken veel verder dan de technologiesector. Als AI werkelijk de volgende industriële revolutie vertegenwoordigt, dan staat een enorme omwenteling op de arbeidsmarkt voor de deur. In tegenstelling tot de eerste industriële revolutie, die voornamelijk fysieke arbeid trof, richt AI zich op cognitieve taken. Niet alleen eenvoudige gegevensinvoer en klantenservice worden bedreigd, maar mogelijk ook hooggekwalificeerde beroepen zoals programmeurs, ontwerpers, advocaten en journalisten.
Een onderzoek naar de vermogensbeheersector voorspelt een daling van vijf procent in het aandeel van arbeid in het inkomen als gevolg van AI en big data. Dit is vergelijkbaar met de veranderingen tijdens de industriële revolutie, die een daling van vijf tot vijftien procent veroorzaakten. Het cruciale verschil: de huidige transformatie vindt plaats over jaren, niet over decennia. Samenlevingen hebben weinig tijd om zich aan te passen.
Test-Time Compute en de paradigmaverschuiving
Terwijl schaalbaarheidswetten voor pre-training hun grenzen bereiken, is er een nieuw paradigma ontstaan: schaalbaarheid van rekenkracht tijdens testtijd. De o1-modellen van OpenAI hebben aangetoond dat aanzienlijke prestatieverbeteringen mogelijk zijn door meer rekenkracht te investeren tijdens de inferentie. In plaats van simpelweg de modelgrootte te vergroten, stellen deze systemen het model in staat om langer over een query na te denken, meerdere benaderingen te volgen om deze op te lossen en de antwoorden zelf te verifiëren.
Onderzoek toont echter aan dat dit paradigma ook beperkingen kent. Sequentiële schaling, waarbij een model meerdere keren over hetzelfde probleem itereert, leidt niet tot continue verbetering. Studies naar modellen zoals Deepseeks R1 en QwQ tonen aan dat langere denkprocessen niet automatisch tot betere resultaten leiden. Vaak corrigeert het model goede antwoorden door onjuiste antwoorden, in plaats van andersom. Het zelfrevisievermogen dat nodig is voor effectieve sequentiële schaling is onvoldoende ontwikkeld.
Parallel schalen, waarbij meerdere oplossingen tegelijkertijd worden gegenereerd en de beste wordt geselecteerd, levert betere resultaten op. Ook hier neemt het marginale voordeel echter af met elke verdubbeling van de geïnvesteerde rekenkracht. De kostenefficiëntie daalt snel. Voor commerciële toepassingen die miljoenen vragen per dag moeten beantwoorden, zijn de kosten onbetaalbaar.
De echte doorbraak zou kunnen liggen in het combineren van verschillende benaderingen. Hybride architecturen die Transformers combineren met State Space Models beloven de sterke punten van beide te verenigen. State Space Models zoals Mamba bieden lineair schaalgedrag bij inferentie, terwijl Transformers excelleren in het vastleggen van afhankelijkheden over lange afstanden. Dergelijke hybride systemen zouden de kosten-kwaliteitverhouding opnieuw in evenwicht kunnen brengen.
Alternatieve architecturen en de toekomst na de Transformers
Naast wereldmodellen ontstaan er een aantal alternatieve architecturen die de dominantie van Transformers zouden kunnen uitdagen. Toestandsruimtemodellen hebben de afgelopen jaren aanzienlijke vooruitgang geboekt. S4, Mamba en Hyena tonen aan dat efficiënt redeneren in lange contexten met lineaire complexiteit mogelijk is. Terwijl Transformers kwadratisch schalen met de sequentielengte, bereiken SSM's lineaire schaling in zowel training als inferentie.
Deze efficiëntieverbeteringen kunnen cruciaal zijn wanneer AI-systemen in productieomgevingen worden ingezet. De kosten van inferentie worden vaak onderschat. Training is een eenmalige investering, maar inferentie vindt continu plaats. ChatGPT is nooit offline. Met miljarden dagelijkse zoekopdrachten kunnen zelfs kleine efficiëntieverbeteringen leiden tot enorme kostenbesparingen. Een model dat de helft van de rekenkracht nodig heeft voor dezelfde kwaliteit, heeft een enorm concurrentievoordeel.
De uitdaging ligt in de ontwikkeling van deze technologieën. Transformers hebben een voorsprong van bijna acht jaar en beschikken over een enorm ecosysteem van tools, bibliotheken en expertise. Alternatieve architecturen moeten niet alleen technisch superieur zijn, maar ook praktisch bruikbaar. De geschiedenis van technologie staat vol met technisch superieure oplossingen die op de markt faalden omdat het ecosysteem ontbrak.
Interessant genoeg vertrouwt de Chinese concurrentie ook op alternatieve benaderingen. DeepSeek V3, een open-sourcemodel met 671 miljard parameters, maakt gebruik van een architectuur met een mix van experts, waarbij slechts 37 miljard parameters per token worden geactiveerd. Het model behaalt vergelijkbare prestaties als westerse concurrenten in benchmarks, maar werd getraind tegen een fractie van de kosten. De trainingstijd bedroeg slechts 2,788 miljoen H800 GPU-uren, aanzienlijk minder dan vergelijkbare modellen.
Deze ontwikkeling laat zien dat technologisch leiderschap niet per se bij de financieel machtigste spelers ligt. Slimme architectuurbeslissingen en optimalisaties kunnen resourcevoordelen compenseren. Voor het wereldwijde AI-landschap betekent dit een toenemende multipolariteit. China, Europa en andere regio's ontwikkelen hun eigen benaderingen die niet simpelweg kopieën zijn van westerse modellen.
De herwaardering en de onvermijdelijke kater
De convergentie van al deze factoren suggereert een naderende herwaardering van de AI-industrie. De huidige waarderingen zijn gebaseerd op de aanname van voortdurende exponentiële groei, zowel in modelprestaties als in commerciële acceptatie. Beide aannames worden steeds twijfelachtiger. De modelprestaties stagneren, terwijl de kosten blijven stijgen. Hoewel de commerciële acceptatie groeit, blijft het een uitdaging om er geld mee te verdienen.
OpenAI, met een waardering van een half biljoen dollar, zou in de komende jaren moeten groeien naar minstens $ 100 miljard aan jaarlijkse omzet en winstgevend moeten worden om die waardering te rechtvaardigen. Dat zou een vertienvoudiging in slechts een paar jaar betekenen. Ter vergelijking: Google had meer dan tien jaar nodig om van $ 10 miljard naar $ 100 miljard aan omzet te groeien. De verwachtingen voor AI-bedrijven zijn onrealistisch hoog.
Analisten waarschuwen voor een mogelijk barsten van de AI-bubbel. De parallellen met de dotcombubbel zijn evident. Toen, net als nu, is er revolutionaire technologie met een enorm potentieel. Toen, net als nu, zijn er irrationeel opgeblazen waarderingen en circulaire financieringsstructuren. Toen, net als nu, rechtvaardigen beleggers absurde waarderingen door te stellen dat de technologie alles zal veranderen en dat traditionele waarderingsmethoden niet langer van toepassing zijn.
Het cruciale verschil: in tegenstelling tot veel dotcombedrijven hebben de huidige AI-bedrijven daadwerkelijk werkende producten met echte waarde. ChatGPT is geen vaporware, maar een technologie die dagelijks door miljoenen mensen wordt gebruikt. De vraag is niet of AI waardevol is, maar of het waardevol genoeg is om de huidige waardering te rechtvaardigen. Het antwoord is waarschijnlijk nee.
Wanneer de herwaardering komt, zal het pijnlijk zijn. Durfkapitaalfondsen hebben 70 procent van hun kapitaal in AI geïnvesteerd. Pensioenfondsen en institutionele beleggers lopen een groot risico. Een forse daling van de AI-waarderingen zou verstrekkende financiële gevolgen hebben. Bedrijven die afhankelijk zijn van goedkope financiering zouden plotseling moeite hebben om kapitaal aan te trekken. Projecten zouden worden stopgezet en personeel zou worden ontslagen.
Het lange termijnperspectief en de weg vooruit
Ondanks deze sombere vooruitzichten op korte termijn blijft het potentieel van kunstmatige intelligentie op lange termijn immens. De huidige hype verandert niets aan het fundamentele belang van de technologie. De vraag is niet of, maar hoe en wanneer AI zijn beloften waarmaakt. LeCuns verschuiving van productontwikkeling op korte termijn naar fundamenteel onderzoek op lange termijn wijst de weg.
De volgende generatie AI-systemen zal er waarschijnlijk anders uitzien dan de huidige LLM's. Ze zullen elementen van wereldmodellen, alternatieve architecturen en nieuwe trainingsparadigma's combineren. Ze zullen minder vertrouwen op brute-force schaling en meer op efficiënte, gestructureerde representaties. Ze zullen leren van de fysieke wereld, niet alleen van tekst. En ze zullen causaliteit begrijpen, niet alleen correlaties.
Deze visie vereist echter tijd, geduld en de vrijheid om fundamenteel onderzoek uit te voeren. Juist deze omstandigheden zijn in de huidige marktomgeving moeilijk te vinden. De druk om snel commercieel succes te boeken is enorm. Kwartaalrapportages en evaluatierondes domineren de agenda. Langetermijnonderzoeksprogramma's, die jaren kunnen duren voordat ze resultaten opleveren, zijn moeilijk te rechtvaardigen.
LeCuns beslissing om op 65-jarige leeftijd een startup op te richten is een opmerkelijke uitspraak. Hij had met alle eer en een gegarandeerde plek in de geschiedenis met pensioen kunnen gaan. In plaats daarvan heeft hij gekozen voor de hobbelige weg van het nastreven van een visie die door de mainstream van de industrie is afgewezen. Meta blijft partner, wat betekent dat zijn bedrijf, althans in eerste instantie, over middelen zal beschikken. Maar het echte succes zal afhangen van de vraag of hij de komende jaren kan aantonen dat Advanced Machine Intelligence inderdaad superieur is.
De transformatie zal jaren duren. Zelfs als LeCun gelijk heeft en wereldmodellen fundamenteel superieur zijn, moeten ze nog steeds ontwikkeld, geoptimaliseerd en geïndustrialiseerd worden. Het ecosysteem moet worden opgebouwd. Ontwikkelaars moeten leren hoe ze de nieuwe tools moeten gebruiken. Bedrijven moeten migreren van LLM's naar de nieuwe systemen. Deze overgangsfasen zijn historisch gezien altijd pijnlijk geweest.
Van hype naar realiteit: de langetermijnkoers van AI
Het vertrek van Yann LeCun bij Meta markeert meer dan alleen een personeelswisseling. Het symboliseert de fundamentele spanning tussen wetenschappelijke visie en commercieel pragmatisme, tussen innovatie op de lange termijn en marktvraag op de korte termijn. De huidige AI-revolutie bevindt zich op een keerpunt. De gemakkelijke successen van schaalvergroting zijn uitgeput. De volgende stappen zullen moeilijker, duurder en onzekerder zijn.
Voor investeerders betekent dit dat de exorbitante waarderingen van huidige AI-kampioenen kritisch onder de loep moeten worden genomen. Voor bedrijven betekent het dat de hoop op snelle productiviteitswonderen dankzij AI mogelijk wordt teleurgesteld. Voor de maatschappij betekent het dat de transformatie langzamer en ongelijkmatiger zal verlopen dan de hypegolf doet vermoeden.
Tegelijkertijd blijft de basis robuust. AI is geen voorbijgaande hype, maar een fundamentele technologie die op de lange termijn vrijwel alle sectoren van de economie zal transformeren. De parallellen met de industriële revolutie zijn treffend. Net als toen zullen er winnaars en verliezers zijn, excessen en correcties, omwentelingen en aanpassingen. De vraag is niet of de transformerende architectuur het einde van zijn kunnen heeft bereikt, maar hoe de volgende fase eruit zal zien en wie deze vorm zal geven.
LeCuns gok op geavanceerde machine-intelligentie en wereldmodellen is gedurfd, maar zou wel eens een vooruitziende blik kunnen blijken. Over vijf jaar zullen we weten of het afstappen van de mainstream de juiste beslissing was of dat de industrie haar koers heeft vastgehouden. De komende jaren zullen cruciaal zijn voor de ontwikkeling van kunstmatige intelligentie op de lange termijn en daarmee voor de economische en maatschappelijke toekomst.
Onze Amerikaanse expertise op het gebied van bedrijfsontwikkeling, verkoop en marketing
Onze Amerikaanse expertise in bedrijfsontwikkeling, verkoop en marketing - Afbeelding: Xpert.Digital
Branchefocus: B2B, digitalisering (van AI tot XR), machinebouw, logistiek, hernieuwbare energie en industrie
Meer hierover hier:
Een thematisch centrum met inzichten en expertise:
- Kennisplatform over de mondiale en regionale economie, innovatie en branchespecifieke trends
- Verzameling van analyses, impulsen en achtergrondinformatie uit onze focusgebieden
- Een plek voor expertise en informatie over actuele ontwikkelingen in het bedrijfsleven en de technologie
- Topic hub voor bedrijven die meer willen weten over markten, digitalisering en industriële innovaties
Uw wereldwijde partner voor marketing en bedrijfsontwikkeling
☑️ onze zakelijke taal is Engels of Duits
☑️ Nieuw: correspondentie in uw nationale taal!
Ik ben blij dat ik beschikbaar ben voor jou en mijn team als een persoonlijk consultant.
U kunt contact met mij opnemen door het contactformulier hier in te vullen of u gewoon te bellen op +49 89 674 804 (München) . Mijn e -mailadres is: Wolfenstein ∂ Xpert.Digital
Ik kijk uit naar ons gezamenlijke project.
☑️ MKB -ondersteuning in strategie, advies, planning en implementatie
☑️ Creatie of herschikking van de digitale strategie en digitalisering
☑️ Uitbreiding en optimalisatie van de internationale verkoopprocessen
☑️ Wereldwijde en digitale B2B -handelsplatforms
☑️ Pioneer Business Development / Marketing / PR / Maatregel
🎯🎯🎯 Profiteer van de uitgebreide, vijfvoudige expertise van Xpert.Digital in een uitgebreid servicepakket | BD, R&D, XR, PR & Optimalisatie van digitale zichtbaarheid
Profiteer van de uitgebreide, vijfvoudige expertise van Xpert.Digital in een uitgebreid servicepakket | R&D, XR, PR & Optimalisatie van digitale zichtbaarheid - Afbeelding: Xpert.Digital
Xpert.Digital heeft diepe kennis in verschillende industrieën. Dit stelt ons in staat om op maat gemaakte strategieën te ontwikkelen die zijn afgestemd op de vereisten en uitdagingen van uw specifieke marktsegment. Door continu markttrends te analyseren en de ontwikkelingen in de industrie na te streven, kunnen we handelen met vooruitziende blik en innovatieve oplossingen bieden. Met de combinatie van ervaring en kennis genereren we extra waarde en geven onze klanten een beslissend concurrentievoordeel.
Meer hierover hier:

