AMI – Gevorderde Masjienintelligensie – Die Einde van Skalering: Waarom Yann LeCun Nie Meer in LLM's Glo Nie
Xpert voorvrystelling
Taalkeuse 📢
Gepubliseer op: 23 November 2025 / Opgedateer op: 23 November 2025 – Outeur: Konrad Wolfenstein

AMI – Gevorderde Masjienintelligensie – Die Einde van Skalering: Waarom Yann LeCun Nie Meer in LLM's Glo Nie – Beeld: Xpert.Digital
Dooiepunt in plaas van superintelligensie: Waarom Meta se hoofvisioenêr nou bedank
600 miljard vir 'n misleide benadering? Die "Godfather of AI" wed teen LLaMA, ChatGPT & Co.
Die aankondiging het soos 'n weerligstraal deur die tegnologiebedryf in November 2025 gekom. Yann LeCun, een van die drie stigtersvaders van diep leer en hoofwetenskaplike by Meta, het sy vertrek aangekondig na twaalf jaar by die maatskappy om sy eie opstartonderneming te stig. Hierdie besluit is veel meer as 'n persoonlike loopbaankeuse deur 'n enkele wetenskaplike. Dit merk 'n fundamentele keerpunt in die globale kunsmatige intelligensiebedryf en onthul die groeiende gaping tussen korttermyn-markbelange en langtermyn-wetenskaplike visie.
LeCun, wat die Turing-toekenning in 2018 saam met Geoffrey Hinton en Yoshua Bengio ontvang het, word beskou as die argitek van konvolusionele neurale netwerke, wat vandag die grondslag vorm van moderne beeldverwerkingstelsels. Sy vertrek kom op 'n tydstip wanneer die hele bedryf honderde miljarde dollars in groot taalmodelle belê, 'n tegnologie wat LeCun jare lank as 'n fundamentele doodloopstraat beskryf het. Met sy nuwe maatskappy beoog die nou 65-jarige wetenskaplike om na te streef wat hy Gevorderde Masjienintelligensie noem, 'n radikaal ander benadering gebaseer op wêreldmodelle en beginnende met fisiese persepsie, nie teks nie.
Die ekonomiese implikasies van hierdie ontwikkeling is enorm. Meta self het die afgelope drie jaar meer as $600 miljard in KI-infrastruktuur belê. OpenAI het 'n waardasie van 'n half triljoen dollar bereik, ten spyte van 'n jaarlikse inkomste van slegs tien miljard dollar. Die hele bedryf het in 'n rigting beweeg wat een van sy belangrikste pioniers nou in die openbaar as 'n doodloopstraat beskryf het. Om die ekonomiese gevolge van hierdie verskuiwing te verstaan, moet 'n mens diep delf in die tegniese, organisatoriese en finansiële strukture van die huidige KI-rewolusie.
Geskik vir:
Die argitektuur van 'n borrel
Die Transformer-argitektuur, wat in 2017 deur navorsers by Google bekendgestel is, het die KI-landskap teen 'n ongekende tempo getransformeer. Hierdie benadering het dit vir die eerste keer moontlik gemaak om massiewe hoeveelhede teks doeltreffend te verwerk en taalmodelle met voorheen onbereikbare vermoëns op te lei. OpenAI het op hierdie fondament voortgebou met sy GPT-reeks, wat met ChatGPT in November 2022 vir die eerste keer aan 'n massapubliek gedemonstreer het wat hierdie tegnologieë kon bereik. Die reaksie was plofbaar. Binne 'n paar maande het tientalle miljarde dollars in die sektor ingevloei.
Sedert die einde van 2024 is daar egter toenemende tekens dat hierdie eksponensiële ontwikkeling sy perke bereik. OpenAI ontwikkel al meer as 18 maande die opvolger van GPT-4, intern bekend as Orion of GPT-5. Die maatskappy het na bewering ten minste twee groot oefenlopies uitgevoer, wat elk ongeveer $500 miljoen gekos het. Die resultate is ontnugterend. Terwyl GPT-4 'n massiewe prestasiesprong bo GPT-3 verteenwoordig het, is Orion se verbeterings bo GPT-4 marginaal. In sommige areas, veral programmering, toon die model feitlik geen vordering nie.
Hierdie ontwikkeling weerspreek fundamenteel die skaalwette, daardie empiriese beginsels wat tot onlangs die hele bedryf gelei het. Die basiese idee was eenvoudig: as jy 'n model groter maak, meer data vir opleiding gebruik en meer rekenaarkrag belê, volg die prestasieverhoging 'n voorspelbare kragfunksie. Hierdie beginsel het universeel waar gelyk en die astronomiese beleggings van die afgelope jare geregverdig. Nou blyk dit dat hierdie krommes afplat. Die volgende verdubbeling van belegging lewer nie meer die verwagte verdubbeling van prestasie nie.
Die redes hiervoor is talryk en tegnies kompleks. 'n Sleutelprobleem is die datamuur. GPT-4 is opgelei met ongeveer 13 triljoen tokens, wat in wese die hele publiek beskikbare internet is. Vir GPT-5 is daar eenvoudig nie genoeg nuwe, hoëgehalte-data nie. OpenAI het gereageer deur sagteware-ontwikkelaars, wiskundiges en teoretiese fisici aan te stel om nuwe data te genereer deur kode te skryf en wiskundige probleme op te los. Selfs al produseer 1 000 mense 5 000 woorde per dag, sal dit maande neem om net een miljard tokens te genereer. Skalering met behulp van mensgegenereerde data werk eenvoudig nie.
As alternatief maak maatskappye toenemend staat op sintetiese data – dit wil sê data wat deur ander KI-modelle gegenereer word. Maar hier skuil 'n nuwe gevaar: modelineenstorting. Wanneer modelle rekursief opgelei word op data wat deur ander modelle gegenereer word, versterk klein foute oor generasies. Die gevolg is modelle wat toenemend los van die werklikheid raak, en waarin minderheidsgroepe in die data onevenredig verdwyn. 'n Studie wat in 2024 in Nature gepubliseer is, het getoon dat hierdie proses verbasend vinnig plaasvind. Sintetiese data is dus nie 'n wondermiddel nie, maar dra eerder beduidende risiko's in.
Die energie-oorgang en die beperkings op groei
Behalwe vir die dataversperring, is daar 'n tweede, selfs meer fundamentele versperring: die energieversperring. Die opleiding van GPT-3 het ongeveer 1 300 megawatt-uur elektrisiteit verbruik, gelykstaande aan die jaarlikse verbruik van 130 Amerikaanse huishoudings. GPT-4 het na raming 50 keer daardie hoeveelheid, of 65 000 megawatt-uur, vereis. Die rekenaarkrag wat benodig word om groot KI-modelle op te lei, verdubbel ongeveer elke 100 dae. Hierdie eksponensiële kurwe lei vinnig tot fisiese beperkings.
Datasentrums wat hierdie modelle oplei en bedryf, verbruik reeds soveel elektrisiteit as klein dorpies. Die Internasionale Energie-agentskap voorspel dat die elektrisiteitsverbruik van datasentrums teen 2026 met 80 persent sal toeneem, van 20 terawatt-uur in 2022 tot 36 terawatt-uur in 2026. KI is die primêre dryfveer van hierdie groei. Ter vergelyking verbruik 'n enkele ChatGPT-navraag ongeveer tien keer meer energie as 'n Google-soektog. Met miljarde navrae per dag tel dit op tot enorme bedrae.
Hierdie ontwikkeling dwing tegnologiemaatskappye om drastiese maatreëls te tref. Microsoft het reeds kontrakte met kernenergieverskaffers onderteken. Meta, Amazon en Google belê 'n gesamentlike totaal van meer as $1,3 triljoen in die komende jare om die nodige infrastruktuur te bou. Maar hierdie beleggings loop teen fisiese en politieke perke vas. Die VSA het eenvoudig nie genoeg energie-infrastruktuur om die beplande KI-datasentrums aan te dryf nie. Ontleders skat dat projekte ter waarde van $750 miljard teen 2030 vertraag kan word weens knelpunte in energie-infrastruktuur.
Daarby kom die geopolitieke dimensie. Die energievraag van die KI-bedryf verskerp die mededinging om hulpbronne en verhoog die afhanklikheid van fossielbrandstowwe. Terwyl beleidmakers klimaatsneutraliteit eis, dryf die KI-bedryf energieverbruik op. Hierdie spanning sal in die komende jare vererger en kan lei tot regulatoriese ingrypings wat die groei van die bedryf beperk.
Die argitektoniese muur en LeCun se alternatief
Die derde hindernis is miskien die mees fundamentele: die argitektoniese muur. Yann LeCun voer al jare aan dat die Transformer-argitektuur inherente beperkings het wat nie bloot deur skalering oorkom kan word nie. Sy kritiek fokus op die fundamentele manier waarop Groot Taalmodelle werk. Hierdie stelsels word opgelei om die volgende woord in 'n reeks te voorspel. Hulle leer statistiese patrone in massiewe tekskorpora, maar hulle ontwikkel nie 'n ware begrip van oorsaaklikheid, fisiese wette of langtermynbeplanning nie.
LeCun illustreer die probleem graag met 'n vergelyking: 'n Vierjarige kind het meer inligting oor die wêreld deur visuele persepsie geabsorbeer as wat die beste taalmodelle deur teks het. 'n Kind verstaan intuïtief dat voorwerpe nie sommer net verdwyn nie, dat swaar dinge val en dat aksies gevolge het. Hulle het 'n wêreldmodel ontwikkel, 'n interne voorstelling van die fisiese werklikheid, wat hulle gebruik om voorspellings te maak en aksies te beplan. LLM's het nie hierdie fundamentele vermoë nie. Hulle kan indrukwekkend samehangende teks genereer, maar hulle verstaan nie die wêreld nie.
Hierdie beperking word keer op keer duidelik in praktiese toepassings. As jy GPT-4 vra om 'n roterende kubus te visualiseer, misluk dit met 'n taak wat enige kind maklik kan voltooi. Met komplekse take wat meerstapbeplanning vereis, misluk die modelle gereeld. Hulle kan nie betroubaar uit foute leer nie, want elke tekenvoorspellingsfout kan homself moontlik kaskadeer en versterk. Outoregressiewe modelle het 'n fundamentele broosheid: 'n fout vroeg in die reeks kan die hele resultaat ruïneer.
LeCun se alternatief is wêreldmodelle gebaseer op Gesamentlike Inbedding Voorspellende Argitektuur. Die basiese idee is dat KI-stelsels nie deur teksvoorspelling moet leer nie, maar eerder deur abstrakte voorstellings van toekomstige toestande te voorspel. In plaas daarvan om pixel vir pixel of teken vir teken te genereer, leer die stelsel 'n saamgeperste, gestruktureerde voorstelling van die wêreld en kan dit gebruik om verskillende scenario's geestelik te simuleer voordat dit optree.
Onder LeCun se leierskap het Meta reeds verskeie implementerings van hierdie benadering ontwikkel. I-JEPA vir beelde en V-JEPA vir video's toon belowende resultate. Hierdie modelle leer hoëvlak-objekkomponente en hul ruimtelike verhoudings sonder om op intensiewe data-insameling staat te maak. Hulle is ook aansienlik meer energie-doeltreffend om op te lei as konvensionele modelle. Die visie is om hierdie benaderings te kombineer in hiërargiese stelsels wat op verskillende vlakke van abstraksie en tydskale kan werk.
Die deurslaggewende verskil lê in die aard van die leerproses. Terwyl LLM's in wese patroonpassing op steroïede uitvoer, poog wêreldmodelle om die struktuur en oorsaaklikheid van die werklikheid te begryp. 'n Stelsel met 'n robuuste wêreldmodel kan die gevolge van sy aksies antisipeer sonder om dit eintlik uit te voer. Dit kan uit 'n paar voorbeelde leer omdat dit die onderliggende beginsels verstaan, nie net oppervlakkige korrelasies nie.
Organisatoriese disfunksie en Meta se eksistensiële krisis
LeCun se vertrek is egter nie net 'n wetenskaplike besluit nie, maar ook die gevolg van organisatoriese disfunksie by Meta. In Junie 2025 het uitvoerende hoof Mark Zuckerberg 'n massiewe herstrukturering van die KI-afdelings aangekondig. Hy het Meta Superintelligence Labs gestig, 'n nuwe eenheid met die verklaarde doel om Kunsmatige Algemene Intelligensie te ontwikkel. Dit is gelei deur Alexandr Wang, die 28-jarige voormalige uitvoerende hoof van Scale AI, 'n datavoorbereidingsmaatskappy. Meta het $14,3 miljard in Scale AI belê en meer as 50 ingenieurs en navorsers van mededingers gewerf.
Hierdie besluit het die bestaande struktuur onderstebo gekeer. LeCun se Fundamentele KI-navorsingspan, wat jare lank PyTorch en die eerste Llama-modelle ontwikkel het, is gemarginaliseer. FAIR was gerig op fundamentele navorsing met 'n tydshorison van vyf tot tien jaar, terwyl die nuwe superintelligensielaboratoriums op korttermynprodukontwikkeling gefokus het. Bronne berig toenemende chaos in Meta se KI-afdelings. Nuut aangestelde toptalent het frustrasie uitgespreek met die burokrasie van 'n groot korporasie, terwyl gevestigde spanne hul invloed sien afneem het.
Die situasie het vererger as gevolg van verskeie herstrukturerings in net ses maande. In Augustus 2025 is Superintelligence Labs weer herorganiseer, hierdie keer in vier subeenhede: 'n geheimsinnige TBD Lab vir nuwe modelle, 'n produkspan, 'n infrastruktuurspan en FAIR. Nog 'n vlaag afleggings het in Oktober gevolg, met ongeveer 600 werknemers wat op 'n skeidingspakket geplaas is. Die verklaarde rede: die vermindering van organisatoriese kompleksiteit en die versnelling van KI-ontwikkeling.
Hierdie voortdurende herstrukturering staan in skrille kontras met die relatiewe stabiliteit van mededingers soos OpenAI, Google en Anthropic. Dit dui op 'n fundamentele onsekerheid by Meta rakende die regte strategiese rigting. Zuckerberg het erken dat Meta agter raak in die wedloop om KI-oorheersing. Llama 4, wat in April 2025 bekendgestel is, was 'n teleurstelling. Terwyl die Maverick-model goeie doeltreffendheid getoon het, het dit dramaties in langer kontekste misluk. Bewerings het na vore gekom dat Meta vir maatstawwe geoptimaliseer het deur modelle spesifiek op algemene toetsvrae op te lei, wat prestasie kunsmatig opgeblaas het.
Vir LeCun het die situasie onhoudbaar geword. Sy visie van langtermyn fundamentele navorsing het gebots met die druk om korttermyn produksuksesse te lewer. Die feit dat hy effektief ondergeskik was aan die aansienlik jonger Wang, het waarskynlik tot sy besluit bygedra. In sy afskeidsmemo beklemtoon LeCun dat Meta 'n vennoot in sy nuwe maatskappy sal bly, maar die boodskap is duidelik: die onafhanklike navorsing wat hy as noodsaaklik beskou, is nie meer moontlik binne die korporatiewe strukture nie.
'n Nuwe dimensie van digitale transformasie met 'Bestuurde KI' (Kunsmatige Intelligensie) - Platform & B2B-oplossing | Xpert Consulting

'n Nuwe dimensie van digitale transformasie met 'Bestuurde KI' (Kunsmatige Intelligensie) – Platform & B2B-oplossing | Xpert Consulting - Beeld: Xpert.Digital
Hier sal jy leer hoe jou maatskappy pasgemaakte KI-oplossings vinnig, veilig en sonder hoë toetreehindernisse kan implementeer.
’n Bestuurde KI-platform is jou allesomvattende, sorgvrye pakket vir kunsmatige intelligensie. In plaas daarvan om met komplekse tegnologie, duur infrastruktuur en lang ontwikkelingsprosesse te sukkel, ontvang jy ’n kant-en-klare oplossing wat op jou behoeftes afgestem is van ’n gespesialiseerde vennoot – dikwels binne ’n paar dae.
Die belangrikste voordele in 'n oogopslag:
⚡ Vinnige implementering: Van idee tot operasionele toepassing in dae, nie maande nie. Ons lewer praktiese oplossings wat onmiddellike waarde skep.
🔒 Maksimum datasekuriteit: Jou sensitiewe data bly by jou. Ons waarborg veilige en voldoenende verwerking sonder om data met derde partye te deel.
💸 Geen finansiële risiko: Jy betaal slegs vir resultate. Hoë voorafbeleggings in hardeware, sagteware of personeel word heeltemal uitgeskakel.
🎯 Fokus op jou kernbesigheid: Konsentreer op wat jy die beste doen. Ons hanteer die hele tegniese implementering, bedryf en instandhouding van jou KI-oplossing.
📈 Toekomsbestand en skaalbaar: Jou KI groei saam met jou. Ons verseker voortdurende optimalisering en skaalbaarheid, en pas die modelle buigsaam aan by nuwe vereistes.
Meer daaroor hier:
Van hype tot realiteit: Die dreigende herwaardering van die KI-bedryf
Die ekonomiese anatomie van blaasvorming
Die ontwikkelinge by Meta is simptomaties van 'n breër ekonomiese dinamiek in die KI-bedryf. Sedert ChatGPT se deurbraak laat in 2022 het 'n ongekende beleggingsoplewing ontvou. In die eerste kwartaal van 2025 alleen het $73,1 miljard na KI-opstartondernemings gevloei, wat 58 persent van alle waagkapitaalbeleggings verteenwoordig. OpenAI het 'n waardasie van $500 miljard bereik, wat dit die eerste private maatskappy maak wat hierdie drumpel oorsteek sonder om ooit winsgewend te wees.
Die waardasies is heeltemal buite verhouding tot werklike inkomste. OpenAI het in 2025 $10 miljard in jaarlikse inkomste gegenereer met 'n waardasie van $500 miljard, wat 'n prys-tot-verkope-verhouding van 50 tot gevolg gehad het. Ter vergelyking, selfs op die hoogtepunt van die dot-com-borrel het min maatskappye sulke veelvoude behaal. Anthropic word gewaardeer op $170 miljard met inkomste van $2,2 miljard, 'n P/E-verhouding van ongeveer 77. Hierdie syfers dui op massiewe oorwaardasie.
Veral problematies is die sirkulêre finansieringsstruktuur wat ontwikkel het. Nvidia belê $100 miljard in OpenAI, wat op sy beurt verplig is om Nvidia-skyfies ter waarde van tientalle miljarde dollars te koop. OpenAI het soortgelyke ooreenkomste met AMD ter waarde van tientalle miljarde dollars aangegaan. Microsoft het meer as $13 miljard in OpenAI belê en huisves sy infrastruktuur op Azure. Amazon het $8 miljard in Anthropic belê, wat in ruil daarvoor AWS as sy primêre wolkplatform gebruik en Amazon se eie KI-skyfies in diens neem.
Hierdie reëlings is onheilspellend soos die sirkulêre finansiering van die laat 1990's, toe tegnologiemaatskappye toerusting aan mekaar verkoop het en die transaksies as inkomste geboek het sonder om enige werklike ekonomiese waarde te genereer. Ontleders praat van 'n toenemend komplekse en ondeursigtige web van sakeverhoudings wat 'n triljoen-dollar-oplewing aanvuur. Die parallelle met die dot-com-borrel en die 2008-finansiële krisis is onmiskenbaar: ondeursigtige en onkonvensionele finansieringsmeganismes wat moeilik is vir beleggers om te verstaan en te beoordeel.
Daarbenewens is daar die konsentrasie van kapitaal. Die Magnificent Seven, die sewe grootste Amerikaanse tegnologiemaatskappye, het hul energieverbruik met 19 persent in 2023 verhoog, terwyl die mediaanverbruik van S&P 500-maatskappye gestagneer het. Ongeveer 80 persent van die aandelemarkwinste in die VSA in 2025 was toe te skryf aan KI-verwante maatskappye. Nvidia alleen het die mees gekoopte aandeel deur kleinhandelbeleggers geword, wat in 2024 byna $30 miljard in die skyfievervaardiger belê het.
Hierdie uiterste konsentrasie hou sistemiese risiko's in. Indien opbrengsverwagtinge onrealisties blyk te wees, kan 'n markineenstorting verreikende gevolge hê. JPMorgan skat dat KI-verwante beleggingsgraad-effekte-uitgiftes alleen teen 2030 $1,5 triljoen kan bereik. Baie van hierdie skuld is gebaseer op die aanname dat KI-stelsels massiewe produktiwiteitswinste sal genereer. Indien hierdie verwagting nie realiseer nie, dreig 'n kredietkrisis.
Geskik vir:
- Meta wed alles op superintelligensie: miljard-dollar-beleggings, mega-datasentrums en 'n riskante KI-wedloop
Die talentoorlog en die sosiale omwentelinge
Die ekonomiese spanning manifesteer ook in die arbeidsmark. Die verhouding van oop KI-posisies tot gekwalifiseerde kandidate is 3,2 tot 1. Daar is 1,6 miljoen oop posisies, maar slegs 518 000 gekwalifiseerde aansoekers. Hierdie uiterste tekort dryf salarisse tot astronomiese hoogtes. KI-spesialiste kan tienduisende dollars by hul jaarlikse inkomste voeg deur vaardighede in Python, TensorFlow of gespesialiseerde KI-raamwerke aan te leer.
Die kompetisie is wreed. Groot tegnologiemaatskappye, goed befondsde opstartondernemings en selfs regerings ding mee om dieselfde klein groepie kundiges. OpenAI het die afgelope maande 'n uittog van bestuurders beleef, insluitend medestigter Ilya Sutskever en hooftegnologiebeampte Mira Murati. Baie van hierdie talentvolle individue begin hul eie opstartondernemings of skuif na mededingers. Meta werf aggressief van OpenAI, Anthropic en Google. Anthropic werf van Meta en OpenAI.
Hierdie dinamiek het verskeie gevolge. Eerstens fragmenteer dit die navorsingslandskap. In plaas daarvan om na gemeenskaplike doelwitte te werk, ding klein spanne in verskillende organisasies mee vir dieselfde deurbrake. Tweedens dryf dit koste op. Die enorme salarisse vir KI-spesialiste is slegs volhoubaar vir goed gekapitaliseerde maatskappye, wat kleiner spelers van die mark uitsluit. Derdens vertraag dit projekte. Maatskappye rapporteer dat oop poste maande lank onvoltooid bly, wat ontwikkelingstydlyne ontwrig.
Die maatskaplike implikasies strek veel verder as die tegnologiesektor. As KI werklik die volgende industriële rewolusie verteenwoordig, dan is 'n massiewe omwenteling van die arbeidsmark op hande. Anders as die eerste industriële rewolusie, wat hoofsaaklik fisiese arbeid geraak het, teiken KI kognitiewe take. Nie net word eenvoudige data-invoer en kliëntediens bedreig nie, maar moontlik ook hoogs geskoolde beroepe soos programmeerders, ontwerpers, prokureurs en joernaliste.
'n Studie van die beleggingsbestuursbedryf voorspel 'n afname van vyf persent in die arbeidsgebaseerde inkomste-aandeel as gevolg van KI en groot data. Dit is vergelykbaar met die verskuiwings tydens die industriële rewolusie, wat 'n afname van vyf tot 15 persent veroorsaak het. Die deurslaggewende verskil: die huidige transformasie vind oor jare plaas, nie dekades nie. Samelewings het min tyd om aan te pas.
Toetstydse Berekening en die Paradigmaverskuiwing
Terwyl skaalwette vir voor-opleiding hul perke bereik, het 'n nuwe paradigma ontstaan: toetstyd-berekeningskalering. OpenAI se o1-modelle het gedemonstreer dat beduidende prestasiewinste moontlik is deur meer rekenaarkrag tydens inferensie te belê. In plaas daarvan om bloot die modelgrootte te vergroot, laat hierdie stelsels die model toe om langer oor 'n navraag te dink, verskeie benaderings tot die oplossing daarvan te volg en self die antwoorde te verifieer.
Navorsing toon egter dat hierdie paradigma ook beperkings het. Sekwensiële skalering, waarin 'n model verskeie kere oor dieselfde probleem herhaal, lei nie tot voortdurende verbeterings nie. Studies oor modelle soos Deepseeks R1 en QwQ toon dat langer denkprosesse nie outomaties beter resultate lewer nie. Dikwels korrigeer die model korrekte antwoorde op verkeerde antwoorde, eerder as andersom. Die selfhersieningskapasiteit wat nodig is vir effektiewe opeenvolgende skalering is onvoldoende ontwikkel.
Parallelle skalering, waar verskeie oplossings gelyktydig gegenereer word en die beste een gekies word, toon beter resultate. Ook hier neem die marginale voordeel egter af met elke verdubbeling van die geïnvesteerde rekenaarkrag. Koste-effektiwiteit daal vinnig. Vir kommersiële toepassings wat miljoene navrae per dag moet beantwoord, is die koste onbetaalbaar.
Die ware deurbraak kan lê in die kombinasie van verskillende benaderings. Hibriede argitekture wat Transformers met Toestandsruimtemodelle kombineer, belowe om die sterk punte van beide te verenig. Toestandsruimtemodelle soos Mamba bied lineêre skaalgedrag in inferensie, terwyl Transformers uitblink in die vaslegging van langafstandafhanklikhede. Sulke hibriede stelsels kan die koste-kwaliteitvergelyking herbalanseer.
Alternatiewe argitekture en die toekoms na die Transformers
Saam met wêreldmodelle ontstaan 'n aantal alternatiewe argitekture wat die oorheersing van Transformers kan uitdaag. Toestandruimtemodelle het die afgelope paar jaar beduidende vordering gemaak. S4, Mamba en Hyena demonstreer dat doeltreffende langkonteksredenering met lineêre kompleksiteit moontlik is. Terwyl Transformers kwadraties met volgordelengte skaal, bereik SSM'e lineêre skalering in beide opleiding en inferensie.
Hierdie doeltreffendheidswinste kan van kritieke belang wees wanneer KI-stelsels in produksieomgewings ontplooi word. Die koste van inferensie is dikwels onderskat. Opleiding is 'n eenmalige belegging, maar inferensie loop voortdurend. ChatGPT is nooit vanlyn nie. Met miljarde daaglikse navrae, dra selfs klein doeltreffendheidsverbeterings by tot massiewe kostebesparings. 'n Model wat die helfte van die rekenaarkrag vir dieselfde gehalte benodig, het 'n geweldige mededingende voordeel.
Die uitdaging lê in die volwassenheid van hierdie tegnologieë. Transformators het 'n voorsprong van byna agt jaar en 'n uitgebreide ekosisteem van gereedskap, biblioteke en kundigheid. Alternatiewe argitekture moet nie net tegnies superieur wees nie, maar ook prakties bruikbaar. Die geskiedenis van tegnologie is vol tegnies superieure oplossings wat in die mark misluk het omdat die ekosisteem tekortgeskiet het.
Interessant genoeg maak die Chinese kompetisie ook staat op alternatiewe benaderings. DeepSeek V3, 'n oopbronmodel met 671 miljard parameters, gebruik 'n mengsel-van-kundiges-argitektuur waarin slegs 37 miljard parameters per teken geaktiveer word. Die model behaal vergelykbare prestasie as Westerse mededingers in maatstawwe, maar is teen 'n fraksie van die koste opgelei. Die opleidingstyd was slegs 2,788 miljoen H800 GPU-ure, aansienlik minder as vergelykbare modelle.
Hierdie ontwikkeling toon dat tegnologiese leierskap nie noodwendig by die finansieel magtigste spelers lê nie. Slim argitektoniese besluite en optimalisering kan vergoed vir hulpbronvoordele. Vir die globale KI-landskap beteken dit toenemende multipolariteit. China, Europa en ander streke ontwikkel hul eie benaderings wat nie bloot kopieë van Westerse modelle is nie.
Die herwaardering en die onvermydelike kater
Die samevloeiing van al hierdie faktore dui op 'n dreigende herwaardering van die KI-bedryf. Huidige waardasies is gebaseer op die aanname van voortdurende eksponensiële groei, beide in modelprestasie en kommersiële aanvaarding. Beide aannames word toenemend twyfelagtig. Modelprestasie stagneer, terwyl koste steeds die hoogte inskiet. Alhoewel kommersiële aanvaarding groei, bly monetarisering uitdagend.
OpenAI, met sy waardasie van 'n halftriljoen dollar, sal tot ten minste $100 miljard in jaarlikse inkomste moet groei en in die komende jare winsgewend moet word om sy waardasie te regverdig. Dit sou 'n tienvoudige toename in net 'n paar jaar beteken. Ter vergelyking het dit Google meer as 'n dekade geneem om van $10 miljard tot $100 miljard in inkomste te groei. Verwagtinge vir KI-maatskappye is onrealisties hoog.
Ontleders waarsku teen 'n moontlike bars van die KI-borrel. Die parallelle met die dot-com-borrel is voor die hand liggend. Toe, soos nou, is daar revolusionêre tegnologie met enorme potensiaal. Toe, soos nou, is daar irrasioneel opgeblase waardasies en sirkulêre finansieringsstrukture. Toe, soos nou, regverdig beleggers absurde waardasies deur te argumenteer dat die tegnologie alles sal verander en dat tradisionele waardasiemaatstawwe nie meer van toepassing is nie.
Die deurslaggewende verskil: Anders as baie dot-com-maatskappye, het vandag se KI-firmas eintlik werkende produkte met werklike waarde. ChatGPT is nie vaporware nie, maar 'n tegnologie wat daagliks deur miljoene mense gebruik word. Die vraag is nie of KI waardevol is nie, maar of dit waardevol genoeg is om huidige waardasies te regverdig. Die antwoord is heel waarskynlik nee.
Wanneer die herwaardasie kom, sal dit pynlik wees. Waagkapitaalfondse het 70 persent van hul kapitaal in KI belê. Pensioenfondse en institusionele beleggers is massief blootgestel. 'n Beduidende daling in KI-waardasies sal verreikende finansiële gevolge hê. Maatskappye wat op goedkoop finansiering staatmaak, sal skielik sukkel om kapitaal in te samel. Projekte sal gestaak word en personeel sal afgelê word.
Die langtermynperspektief en die pad vorentoe
Ten spyte van hierdie somber korttermynvooruitsigte, bly die langtermynpotensiaal van kunsmatige intelligensie enorm. Die huidige hype verander nie die fundamentele belangrikheid van die tegnologie nie. Die vraag is nie of nie, maar hoe en wanneer KI sy belofte sal nakom. LeCun se verskuiwing van korttermynprodukontwikkeling na langtermyn fundamentele navorsing dui die weg aan.
Die volgende generasie KI-stelsels sal waarskynlik anders lyk as vandag se LLM's. Dit sal elemente van wêreldmodelle, alternatiewe argitekture en nuwe opleidingsparadigmas kombineer. Dit sal minder staatmaak op brute-force-skalering en meer op doeltreffende, gestruktureerde voorstellings. Dit sal leer uit die fisiese wêreld, nie net teks nie. En dit sal oorsaaklikheid verstaan, nie net korrelasies nie.
Hierdie visie vereis egter tyd, geduld en die vryheid om fundamentele navorsing te doen. Hierdie einste toestande is moeilik om te vind in die huidige markomgewing. Die druk om vinnige kommersiële sukses te behaal, is enorm. Kwartaallikse verslae en evalueringsrondtes oorheers die agenda. Langtermyn-navorsingsprogramme, wat jare kan neem om resultate te lewer, is moeilik om te regverdig.
LeCun se besluit om 'n nuwe onderneming op 65 te stig, is 'n merkwaardige stelling. Hy kon met al die eerbewyse en 'n gewaarborgde plek in die geskiedenis afgetree het. In plaas daarvan het hy die moeilike pad gekies om 'n visie na te jaag wat deur die hoofstroom van die bedryf verwerp is. Meta sal 'n vennoot bly, wat beteken dat sy maatskappy hulpbronne sal hê, ten minste aanvanklik. Maar die werklike sukses daarvan sal afhang van of hy in die komende jare kan demonstreer dat Gevorderde Masjienintelligensie inderdaad beter is.
Die transformasie sal jare neem. Selfs al is LeCun reg en wêreldmodelle fundamenteel beter is, moet hulle steeds ontwikkel, geoptimaliseer en geïndustrialiseer word. Die ekosisteem moet gebou word. Ontwikkelaars moet leer hoe om die nuwe gereedskap te gebruik. Maatskappye moet van LLM's na die nuwe stelsels migreer. Hierdie oorgangsfases was histories nog altyd pynlik.
Van hype tot realiteit: Die langtermyn-aksieplan in KI
Yann LeCun se vertrek by Meta dui op meer as net 'n personeelverandering. Dit simboliseer die fundamentele spanning tussen wetenskaplike visie en kommersiële pragmatisme, tussen langtermyn-innovasie en korttermyn-markaanvraag. Die huidige KI-rewolusie is op 'n keerpunt. Die maklike suksesse van skalering is uitgeput. Die volgende stappe sal moeiliker, duurder en onsekerder wees.
Vir beleggers beteken dit dat die buitensporige waardasies van huidige KI-kampioene krities ondersoek moet word. Vir maatskappye beteken dit dat die hoop op vinnige produktiwiteitswonderwerke deur KI teleurgestel kan word. Vir die samelewing beteken dit dat die transformasie stadiger en meer ongelyk sal wees as wat die hype-golf suggereer.
Terselfdertyd bly die fondament robuust. KI is nie 'n verbygaande gier nie, maar 'n fundamentele tegnologie wat feitlik alle sektore van die ekonomie op die lang termyn sal transformeer. Die parallelle met die industriële rewolusie is gepas. Soos toe, sal daar wenners en verloorders wees, oordadige transaksies en regstellings, omwentelinge en aanpassings. Die vraag is nie of die transformatorargitektuur die einde van sy vermoëns bereik het nie, maar hoe die volgende fase sal lyk en wie dit sal vorm.
LeCun se weddenskap op gevorderde masjienintelligensie en wêreldmodelle is gewaagd, maar dit kan versiende wees. Oor vyf jaar sal ons weet of dit die regte besluit was om van die hoofstroom weg te breek, of dat die bedryf die koers gebly het. Die komende jare sal van kritieke belang wees vir die langtermynontwikkeling van kunsmatige intelligensie en gevolglik vir die ekonomiese en maatskaplike toekoms.
Ons Amerikaanse kundigheid in sake-ontwikkeling, verkope en bemarking
Bedryfsfokus: B2B, digitalisering (van KI tot XR), meganiese ingenieurswese, logistiek, hernubare energie en nywerheid
Meer daaroor hier:
'n Onderwerpsentrum met insigte en kundigheid:
- Kennisplatform oor die globale en streeksekonomie, innovasie en bedryfspesifieke tendense
- Versameling van ontledings, impulse en agtergrondinligting uit ons fokusareas
- 'n Plek vir kundigheid en inligting oor huidige ontwikkelinge in besigheid en tegnologie
- Onderwerpsentrum vir maatskappye wat wil leer oor markte, digitalisering en bedryfsinnovasies
Jou globale bemarkings- en besigheidsontwikkelingsvennoot
☑️ Ons besigheidstaal is Engels of Duits
☑️ NUUT: Korrespondensie in jou landstaal!
Ek sal graag jou en my span as 'n persoonlike adviseur dien.
Jy kan my kontak deur die kontakvorm hier in te vul of bel my eenvoudig by +49 89 89 674 804 (München) . My e-posadres is: wolfenstein ∂ xpert.digital
Ek sien uit na ons gesamentlike projek.
☑️ KMO-ondersteuning in strategie, konsultasie, beplanning en implementering
☑️ Skep of herbelyning van die digitale strategie en digitalisering
☑️ Uitbreiding en optimalisering van internasionale verkoopsprosesse
☑️ Globale en digitale B2B-handelsplatforms
☑️ Pionier Besigheidsontwikkeling / Bemarking / PR / Handelskoue
🎯🎯🎯 Benut Xpert.Digital se uitgebreide, vyfvoudige kundigheid in 'n omvattende dienspakket | BD, O&O, XR, PR & Digitale Sigbaarheidsoptimalisering

Trek voordeel uit Xpert.Digital se uitgebreide, vyfvoudige kundigheid in 'n omvattende dienspakket | O&O, XR, PR & Digitale Sigbaarheidsoptimalisering - Beeld: Xpert.Digital
Xpert.Digital het diepgaande kennis van verskeie industrieë. Dit stel ons in staat om pasgemaakte strategieë te ontwikkel wat presies aangepas is vir die vereistes en uitdagings van jou spesifieke marksegment. Deur voortdurend markneigings te ontleed en bedryfsontwikkelings te volg, kan ons met versiendheid optree en innoverende oplossings bied. Deur die kombinasie van ervaring en kennis, genereer ons toegevoegde waarde en gee ons kliënte 'n beslissende mededingende voordeel.
Meer daaroor hier:























