
AI-chiphype möter verklighet: Framtiden för datacenter – egenutveckling kontra marknadsmättnad – Bild: Xpert.Digital
Nvidias monopol är skakigt: Teknikjättar startar nästa steg i chipkriget - Miljardpokerspel om AI-chips
Den stora uppgörelsen i datacentret: Intern utveckling möter den annalkande marknadsmättnaden
Världen av artificiell intelligens upplever en exempellös boom, driven av en till synes omättlig efterfrågan på datorkraft. I centrum för denna hype finns AI-chip, särskilt GPU:erna från marknadsledaren Nvidia, som har blivit den digitala erans guldgruva. Men bakom kulisserna sker ett strategiskt skifte som kan omforma maktstrukturen inom hela teknikindustrin. De största köparna av dessa chip – hyperskalare som Microsoft, Google och Amazon – vill inte längre bara vara kunder. Med miljarder dollar i investeringar utvecklar de sina egna anpassade halvledare som Microsofts Maia, Googles TPU:er och Amazons Trainium.
Motivationen är tydlig: att minska kostnaderna, minska beroendet av enskilda leverantörer och perfekt anpassa hela infrastrukturen, från chip till kylning, till företagets egna AI-modeller. Det som börjar som ett pragmatiskt affärsbeslut för att optimera prestandan utlöser grundläggande konkurrens och utmanar Nvidias dominans på allvar för första gången. Men i takt med att en kapprustning om den kraftfullaste AI-infrastrukturen rasar och hundratals miljarder dollar investeras, blir varningarna om överhettning allt högre. Experter drar jämförelser med tidigare spekulationsbubblor och varnar för en förestående marknadsmättnad och överkapacitet under de kommande åren.
Den här artikeln fördjupar sig i hajpen kring AI-chip och belyser verkligheten bakom den: Varför fokuserar teknikjättar på egenutveckling? Hur långt gångna är de egentligen med detta? Och vad händer när den exponentiella efterfrågan plötsligt kollapsar och drömmen om oändlig AI-tillväxt kolliderar med den hårda verkligheten av en ekonomisk korrigering?
Lämplig för detta:
Vad driver hyperscalers att utveckla sina egna chips?
De stora molnleverantörerna, även kända som hyperscalers, står inför ett grundläggande strategiskt beslut: Ska de fortsätta att förlita sig på chip från etablerade tillverkare som Nvidia och AMD eller i allt högre grad gå över till egen halvledarutveckling? Microsofts tekniska chef Kevin Scott lyfte nyligen fram denna fråga när han förklarade att Microsoft avser att på lång sikt främst förlita sig på sina egna Maia-chip. Denna strategi är inte ny – både Google med sina TPU:er och Amazon med sina Trainium-chip använder redan liknande metoder.
Den främsta orsaken till denna utveckling är kostnadsoptimering. För hyperskalare är pris-prestanda-förhållandet den avgörande faktorn, vilket Scott betonar: "Vi är inte dogmatiska om vilka chip vi använder. Det betyder att Nvidia har varit den bästa pris-prestanda-lösningen i många år. Vi är öppna för alla alternativ som säkerställer att vi har tillräcklig kapacitet för att möta efterfrågan." Detta uttalande tydliggör att detta inte är ett fundamentalt avvisande av de etablerade leverantörerna, utan ett pragmatiskt affärsbeslut.
Att utveckla sina egna chip gör det också möjligt för hyperskalare att optimera hela sin systemarkitektur. Microsoft kan till exempel använda sina Maia-chip för att inte bara anpassa datorkraften utan också skräddarsy kylning, nätverk och andra infrastrukturelement efter sina specifika krav. Scott förklarar: "Det handlar om hela systemdesignen. Det är nätverket och kylningen, och du vill ha friheten att fatta de beslut du behöver för att verkligen optimera beräkningen för arbetsbelastningen."
Hur långt har de olika hyperscalerarna kommit med sina egna utvecklingar?
De tre stora molnleverantörerna befinner sig i olika skeden av att utveckla sina anpassade kiselstrategier. Amazon Web Services är pionjären inom detta område och lade redan grunden med det första Graviton-chippet 2018. AWS är nu inne på den fjärde generationen av Graviton-processorer, designade för generella datorbelastningar. Parallellt har Amazon utvecklat specialiserade AI-chip: Trainium för träning och Inferentia för att dra slutsatser om maskininlärningsmodeller.
Siffrorna talar för att denna strategi är framgångsrik: Under de senaste två åren har Graviton-processorer stått för över 50 procent av all CPU-kapacitet som installerats i AWS datacenter. AWS rapporterar också att fler än 50 000 kunder använder Graviton-baserade tjänster. Den praktiska tillämpningen är särskilt imponerande: Under Prime Day 2024 driftsatte Amazon en kvarts miljon Graviton-chips och 80 000 av sina anpassade AI-chips.
Google har valt en annan väg med sina Tensor Processing Units och fokuserat tidigt på AI-specifik hårdvara. TPU:erna är redan i sin sjunde generation och erbjuds exklusivt via Google Cloud. Google introducerade också nyligen sin första Arm-baserade universalprocessor, Axion, som enligt företaget sägs erbjuda upp till 30 procent bättre prestanda än jämförbara Arm-baserade instanser från andra molnleverantörer.
Microsoft är den som är sen i den här kapplöpningen. Företaget presenterade sina första egenutvecklade chip först i slutet av 2023: Azure Maia AI Accelerator och Azure Cobalt CPU. Cobalt-processorn har varit allmänt tillgänglig sedan oktober 2024 och är baserad på en 64-bitarsarkitektur med 128 kärnor, tillverkad med en 5-nanometerprocess från TSMC. Microsoft hävdar att Cobalt levererar upp till 40 procent bättre prestanda än tidigare Arm-baserade erbjudanden i Azure.
Varför kan inte våra egna chips täcka hela efterfrågan?
Trots framsteg inom intern utveckling är alla hyperskalare fortfarande långt ifrån att möta hela sina behov med hemmatillverkade chip. Den främsta anledningen är marknadens stora storlek och den snabba ökningen av efterfrågan. Microsofts Kevin Scott sammanfattar det: "Att säga att det finns en massiv brist på beräkningskapacitet är förmodligen en underdrift. Sedan lanseringen av ChatGPT har det varit nästan omöjligt att skala upp kapaciteten tillräckligt snabbt."
Siffrorna illustrerar utmaningens omfattning: Den globala datacenterkapaciteten förväntas öka med 50 procent till 2027, drivet av efterfrågan på AI. Enbart stora teknikföretag planerar att investera över 300 miljarder dollar i AI-infrastruktur till 2025. Med en sådan tillväxttakt är det fysiskt omöjligt att möta all efterfrågan genom intern chiputveckling.
Dessutom finns det tekniska begränsningar i tillverkningen. De mest avancerade chippen tillverkas endast av ett fåtal gjuterier som TSMC, och kapaciteten är begränsad. Microsoft, Google och Amazon måste dela denna produktionskapacitet med andra kunder, vilket begränsar de tillgängliga kvantiteterna för deras egna chips. En annan faktor är utvecklingstiden: Medan efterfrågan exploderar tar det flera år att utveckla ett nytt chip.
Hyperskalarna använder sig därför av en blandad strategi. De utvecklar sina egna chip för specifika arbetsbelastningar där de ser störst nytta, och kompletterar dessa med chip från Nvidia, AMD och Intel för andra användningsområden. Scott förklarar: "Vi är inte dogmatiska när det gäller namnen på chipen. Det handlar om bästa pris-prestanda-förhållande."
Vilka ekonomiska fördelar erbjuder skräddarsydda kisellösningar?
De ekonomiska incitamenten för att utveckla egna chip är betydande. Studier visar att AWS Trainium och Google TPU v5e är 50 till 70 procent billigare vad gäller kostnad per token för stora språkmodeller än avancerade NVIDIA H100-kluster. I vissa analyser har TPU-implementeringar visat sig vara fyra till tio gånger mer kostnadseffektiva än GPU-lösningar för att träna stora språkmodeller.
Dessa kostnadsbesparingar uppstår på grund av flera faktorer. För det första kan chippen skräddarsys exakt efter de specifika kraven för arbetsbelastningarna, vilket möjliggör effektivitetsvinster. För det andra elimineras chiptillverkarens marginal, vilket leder till betydande besparingar med tanke på de enorma volymerna av hyperskalare. För det tredje möjliggör vertikal integration bättre kontroll över hela leveranskedjan.
Amazon rapporterar till exempel att SAP uppnådde en prestandaökning på 35 procent i analytiska arbetsbelastningar med Graviton-baserade EC2-instanser. Google hävdar att deras TPU v5e levererar tre gånger mer inferensdataflöde per dollar än den tidigare TPU-generationen genom kontinuerlig batchning. Microsoft hävdar att deras Cobalt-processorer erbjuder upp till 1,5 gånger bättre prestanda i Java-arbetsbelastningar och dubbelt så mycket prestanda i webbservrar.
Den långsiktiga ekonomiska effekten är betydande. Med investeringar på hundratals miljarder dollar kan även små effektivitetsvinster leda till enorma kostnadsbesparingar. Experter uppskattar att marknaden för anpassat kisel i molnmiljöer kan nå en volym på 60 miljarder dollar år 2035.
Lämplig för detta:
- AI-chipkriget eskalerar: Nvidias mardröm? Kina slår tillbaka med sina egna AI-chip – och Alibaba är bara början
Hur utvecklas konkurrenssituationen på chipmarknaden?
Den ökande interna utvecklingen av hyperscalers förändrar fundamentalt den traditionella chipindustrin. Nvidia, länge den obestridda marknadsledaren inom AI-acceleratorer, står inför allvarlig konkurrens för första gången. Analytiker på Kearney förutspår att hyperscalerutvecklade kisellösningar som Googles TPU, AWS Trainium och Microsofts Maia kan uppnå upp till 15 till 20 procents marknadsandel som interna implementeringar.
Denna utveckling tvingar traditionella chiptillverkare att ompositionera sig. AMD försöker till exempel utmana Nvidia direkt med sin MI300-serie samtidigt som de erbjuder ökade partnerskap med molnleverantörer. Intel, även om de har en mindre stark position inom AI-chip, fortsätter att dra nytta av anpassade Xeon-processorer för hyperskalare, vilket demonstreras av R8i-instanserna som nyligen tillkännagavs av AWS.
Konkurrensdynamiken intensifieras ytterligare av hyperscalerarnas olika strategier. Medan Google använder sina TPU:er uteslutande internt och erbjuder dem via Google Cloud, kan andra leverantörer också marknadsföra sina chips externt i framtiden. Denna diversifiering av leverantörer leder till sundare konkurrens och kan accelerera innovationscykler.
Den geopolitiska dimensionen är också en viktig aspekt. Mot bakgrund av spänningarna mellan USA och Kina investerar amerikanska hyperskalare i allt högre grad i sina egna chipkapaciteter för att bli mindre beroende av asiatiska leverantörer. Samtidigt dyker inhemska mästare upp i Kina, såsom Baidu med sina Kunlun-chip.
En ny dimension av digital transformation med 'Managed AI' (Artificial Intelligence) - Plattform & B2B-lösning | Xpert Consulting
En ny dimension av digital transformation med 'Managed AI' (Artificial Intelligence) – Plattform & B2B-lösning | Xpert Consulting - Bild: Xpert.Digital
Här får du lära dig hur ditt företag kan implementera skräddarsydda AI-lösningar snabbt, säkert och utan höga inträdesbarriärer.
En Managed AI-plattform är ditt heltäckande och bekymmersfria paket för artificiell intelligens. Istället för att behöva hantera komplex teknik, dyr infrastruktur och långa utvecklingsprocesser får du en nyckelfärdig lösning skräddarsydd efter dina behov från en specialiserad partner – ofta inom några dagar.
De viktigaste fördelarna i korthet:
⚡ Snabb implementering: Från idé till operativ tillämpning på dagar, inte månader. Vi levererar praktiska lösningar som skapar omedelbart värde.
🔒 Maximal datasäkerhet: Dina känsliga uppgifter stannar hos dig. Vi garanterar säker och korrekt behandling utan att dela data med tredje part.
💸 Ingen ekonomisk risk: Du betalar bara för resultat. Höga initiala investeringar i hårdvara, mjukvara eller personal elimineras helt.
🎯 Fokusera på din kärnverksamhet: Koncentrera dig på det du gör bäst. Vi hanterar hela den tekniska implementeringen, driften och underhållet av din AI-lösning.
📈 Framtidssäkert och skalbart: Din AI växer med dig. Vi säkerställer kontinuerlig optimering och skalbarhet och anpassar modellerna flexibelt till nya krav.
Mer om detta här:
AI-boom kontra chipbrist: När är datacenterbubblan nära förestående?
Vad innebär den nuvarande efterfrågetrenden för marknaden?
Efterfrågan på datorkapacitet, särskilt för AI-applikationer, upplever för närvarande exponentiell tillväxt. Nvidia uppskattar att resonemangsmodeller kräver mer än 100 gånger mer datorresurser än tidigare generationer. Denna utveckling leder till en strukturell brist på avancerade chips och datacenterkapacitet.
McKinseys analys visar att den globala efterfrågan på datacenterkapacitet kan tredubblas fram till 2030, med en årlig tillväxttakt på cirka 22 procent. I USA kan efterfrågan till och med växa med 20 till 25 procent årligen. Omkring 70 procent av denna beräknade efterfrågan för 2030 kommer att komma från hyperscalers.
Denna ökade efterfrågan leder till ett paradigmskifte i branschen. Synergy Research Group förutspår att hyperscalers kommer att kontrollera 61 procent av den globala datacenterkapaciteten år 2030, en ökning från 44 procent idag. Samtidigt kommer andelen lokala datacenter att minska från 34 procent idag till förväntade 22 procent år 2030.
Den höga efterfrågan leder också till flaskhalsar i hela leveranskedjan. Högbandbreddsminne, avancerade paketeringstekniker som CoWoS och specialiserade substrat är redan fullbokade i månader. Nvidia rapporterar till exempel att nästa generations Blackwell-grafikprocessorer redan har varit slutsålda i ett år eller mer.
Lämplig för detta:
När kan överkapacitet uppstå?
Frågan om potentiell överkapacitet i datacenter är mycket kontroversiell. Olika experter varnar redan för en AI-bubbla som kan bli större än dotcom-bubblan på 1990-talet. MacroStrategy Partnership, ett oberoende analysföretag, hävdar att den nuvarande AI-bubblan är 17 gånger större än dotcom-bubblan och fyra gånger större än fastighetsbubblan 2008.
Goldman Sachs VD David Solomon varnar för en börsnedgång under de kommande åren på grund av de enorma summor som flödar in i AI-projekt. Han förklarar: "Jag tror att mycket kapital satsas som kommer att visa sig olönsamt, och när det händer kommer folk inte att må bra." Amazons VD Jeff Bezos bekräftade vid samma konferens att det finns en bubbla i AI-branschen.
Varningstecknen ökar: Julien Garran från MacroStrategy Partnership påpekar att företagens användning av stora språkmodeller redan har börjat minska. Han menar också att ChatGPT kan ha "kört iväg", eftersom den senaste versionen kostar tio gånger mer men inte presterar märkbart bättre än tidigare versioner.
Å andra sidan visar aktuell marknadsdata att efterfrågan fortsätter att överstiga utbudet. CBRE rapporterar att vakansgraden på primära datacentermarknader i Nordamerika sjönk till rekordlåga 2,8 procent i början av 2024. Detta inträffade trots den största årliga ökningen av utbudet av datacenter, vilket tyder på att grundförutsättningarna förblir starka.
Vilka tidsramar är realistiska för en eventuell marknadskonsolidering?
Att exakt förutsäga tidpunkten för en potentiell marknadskonsolidering är extremt svårt, eftersom det beror på många okända faktorer. Analytiker identifierar dock flera viktiga perioder under vilka marknadsdynamiken kan förändras.
Den första kritiska perioden är mellan 2026 och 2027. Flera faktorer tyder på att tillväxttakten kan avta under denna period. Hyperskalare planerar redan en nedgång på 20 till 30 procent i sina investeringar för 2026, vilket indikerar en viss mättnad eller omvärdering av investeringar.
Halvledarindustrin förväntar sig att efterfrågan på AI-chip kan nå en första platå mellan 2026 och 2027. Den årliga tillväxttakten för wafers kan normaliseras från nuvarande 14 till 17 procent till cirka 4 procent. Detta skulle representera en betydande vändpunkt i kapacitetsplaneringen.
En andra kritisk period är runt 2028 till 2030. Vid den här tidpunkten kan den första generationen av storskaliga investeringar i AI-infrastruktur behöva nå sin återbetalningspunkt. Om tillräckligt många lönsamma användningsområden inte har utvecklats tills dess kan en korrigering ske. McKinsey förutspår att efterfrågan på datacenterkapacitet kommer att tredubblas till 2030, men dessa prognoser är baserade på antaganden om AI-användning som kan visa sig vara alltför optimistiska.
Den avgörande faktorn blir huruvida AI-tillämpningar visar sig vara permanent lönsamma. Dario Perkins från TS Lombard varnar för att teknikföretag tar på sig massiva skulder för att bygga AI-datacenter utan att ta hänsyn till avkastning eftersom de konkurrerar om kapital. Denna situation påminner om tidigare bubblor och kan leda till en korrigering om avkastningen inte motsvarar förväntningarna.
Vilka skulle konsekvenserna av överkapacitet bli?
Överkapacitet i datacenter skulle få långtgående konsekvenser för hela teknikindustrin. För det första skulle det leda till ett drastiskt prisfall på molntjänster. Även om detta skulle vara fördelaktigt för kunderna på kort sikt, skulle det kunna påverka lönsamheten för hyperskalare avsevärt och leda till marknadskonsolidering.
Påverkan på sysselsättningen skulle bli betydande. Mer än 250 000 arbetare inom teknikindustrin var redan drabbade av uppsägningar år 2025, och en marknadskorrigering skulle förvärra dessa trender. Datacenterverksamhet, chiputveckling och relaterade sektorer skulle särskilt drabbas.
Överkapacitet skulle vara särskilt smärtsamt för halvledarindustrin. De enorma investeringarna i tillverkningskapacitet för avancerade chip kan visa sig vara överdrivna. Samsung rapporterade redan en vinstnedgång på 39 procent under andra kvartalet 2025 på grund av svagare efterfrågan på AI-chip, vilket kan vara ett förebud om vad som komma skall.
Marknadskonsolidering skulle sannolikt leda till en koncentration på de starkaste leverantörerna. Mindre molnleverantörer och datacenteroperatörer skulle kunna köpas upp av större företag eller tvingas ut från marknaden. Detta skulle kunna leda till mindre konkurrens och högre priser på lång sikt.
Å andra sidan skulle en korrigering också kunna ha positiva effekter. Den skulle eliminera ineffektiv kapacitet och omdirigera resurser till mer produktiva användningsområden. De överlevande företagen skulle sannolikt bli starkare och mer hållbara. Dessutom skulle konsolidering kunna främja utvecklingen av standarder och interoperabilitet.
Hur förbereder sig företagen för olika scenarier?
Med tanke på osäkerheten kring den framtida marknadsutvecklingen använder hyperskalare och andra företag olika strategier för att minska risken. Det viktigaste är att diversifiera sina chipstrategier. Som Microsofts tekniska chef Kevin Scott betonar är de fortfarande "öppna för alla alternativ" för att säkerställa att tillräcklig kapacitet finns tillgänglig.
Microsoft utvecklar inte bara sina egna chip utan fortsätter också att investera i partnerskap med Nvidia, AMD och andra leverantörer. Denna strategi med flera leverantörer minskar risken för beroende av en enda leverantör och gör det möjligt att reagera snabbt på marknadsförändringar. Amazon och Google använder liknande metoder, även om de har olika fokus.
En annan viktig aspekt är geografisk diversifiering. Med tanke på NIMBY-problemen på etablerade marknader som norra Virginia flyttar hyperskalare i allt högre grad sina investeringar till sekundärmarknader och utomlands. Detta minskar inte bara kostnaderna utan även de regulatoriska riskerna.
Hyperskalare investerar också i allt större utsträckning i energieffektivitet och hållbara tekniker. Med en förväntad fördubblad energiförbrukning i datacenter till 2028 är detta ett både ekonomiskt och regulatoriskt krav. Vätskekylning, effektivare chips och förnybar energi blir standardfunktioner.
Slutligen utvecklar många företag mer flexibla affärsmodeller. Istället för att enbart förlita sig på egenägande använder de i allt högre grad hybridmodeller med colocation-leverantörer och andra partners. Detta gör det möjligt för dem att skala upp eller minska kapaciteten snabbare, beroende på marknadsförhållandena.
Vilken roll spelar regleringsfaktorer?
Regelutvecklingen kan spela en avgörande roll i den framtida utvecklingen av datacentermarknaden. I USA ökar kraven på strängare reglering av datacenters energiförbrukning. Vissa stater överväger redan moratorier för nya storskaliga konsumenter eller strängare testförfaranden.
Miljöpåverkan är alltmer i fokus. Datacenter kan stå för 20 procent av den globala energiförbrukningen år 2028, vilket kan leda till strängare miljöregler. Europeiska unionen har redan infört klimatneutrala datacenterpakten, som över 40 datacenteroperatörer har anslutit sig till.
Geopolitiska spänningar påverkar också branschen. Potentiella tullar på halvledare kan öka chipkostnaderna och störa leveranskedjorna. Detta kan tvinga hyperskalare att ompröva sina upphandlingsstrategier och förlita sig mer på regionala leverantörer.
Dataskydd och datasuveränitet blir också viktiga faktorer. Olika länder kräver att vissa uppgifter behandlas lokalt, vilket begränsar den globala skalningen av datacenter. Detta kan leda till marknadsfragmentering och minska effektivitetsvinsterna från stordriftsfördelar.
Reglering skulle också kunna ge positiva impulser. Investeringar i hållbar teknik och förnybar energi stöds ofta av regeringar. Dessutom skulle regulatoriska krav kunna främja standarder som ökar effektiviteten i hela branschen på lång sikt.
Lämplig för detta:
- AI-mervärde? Innan du investerar i AI: Identifiera de fyra tysta mördarna bakom framgångsrika projekt
Navigera mellan tillväxt och risk
Datacenterindustrin befinner sig vid en kritisk brytpunkt. Utvecklingen av proprietära chip av hyperskalare som Microsoft, Google och Amazon är ett logiskt svar på de explosionsartade kostnaderna och den begränsade tillgängligheten av standardlösningar. Denna strategi erbjuder betydande ekonomiska fördelar och möjliggör större kontroll över hela infrastrukturen.
Samtidigt är riskerna för överkapacitet verkliga och kan leda till en betydande marknadskorrigering mellan 2026 och 2030. Varningssignalerna ökar, från det avtagande införandet av AI-teknik till framstående branschpersoner som varnar för en bubbla. En potentiell konsolidering skulle medföra både möjligheter och utmaningar.
Den avgörande faktorn för branschens framtid kommer att vara huruvida de enorma investeringarna i AI-infrastruktur visar sig vara hållbart lönsamma. Hyperskalare förbereder sig för olika scenarier genom diversifiering, geografisk spridning och flexibla affärsmodeller. Regelutvecklingen, särskilt inom miljö- och energiområdena, kommer att öka komplexiteten ytterligare.
För företag och investerare innebär detta att de måste hålla ett öga på både de enorma tillväxtmöjligheterna och de betydande riskerna. Vinnarna blir de som kan reagera flexibelt på marknadsförändringar samtidigt som de kontinuerligt förbättrar effektiviteten i sin verksamhet. De kommande åren kommer att visa om den nuvarande expansionen bygger på en solid grund eller om varningarna om en bubbla visar sig vara sanna.
Din globala marknadsförings- och affärsutvecklingspartner
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.
☑ SME -stöd i strategi, rådgivning, planering och implementering
☑ skapande eller omjustering av den digitala strategin och digitaliseringen
☑ Expansion och optimering av de internationella försäljningsprocesserna
☑ Globala och digitala B2B -handelsplattformar
☑ Pioneer Business Development / Marketing / PR / Measure
Vår globala bransch- och ekonomiexpertis inom affärsutveckling, försäljning och marknadsföring
Vår globala bransch- och affärsexpertis inom affärsutveckling, försäljning och marknadsföring - Bild: Xpert.Digital
Branschfokus: B2B, digitalisering (från AI till XR), maskinteknik, logistik, förnybar energi och industri
Mer om detta här:
Ett ämnesnav med insikter och expertis:
- Kunskapsplattform om global och regional ekonomi, innovation och branschspecifika trender
- Insamling av analyser, impulser och bakgrundsinformation från våra fokusområden
- En plats för expertis och information om aktuell utveckling inom näringsliv och teknologi
- Ämnesnav för företag som vill lära sig om marknader, digitalisering och branschinnovationer