
Artificiell intelligens med Exaone Deep: LG AI Research introducerar en ny resonemang AI Model-Agentic AI från Sydkorea-Image: Xpert.digital
Sydkoreas AI -offensiv: Exaone Deep sätter globala standarder
LG Presents Exaone Deep: Revolutionary Agentic AI One Open Source Basis
Med Exaone Deep har LG AI -forskning publicerat en ytterligare resonemang AI -modell som en öppen källkod som ger de sydkoreanska AI -ansträngningarna till den globala scenen. Modellen som presenterades i mars 2025 medan NVIDIA: s utvecklarkonferens GTC kännetecknas av dess förmåga att formulera, kontrollera, kontrollera och fatta autonoma beslut baserat på den. Denna innovativa AI -lösning markerar övergången till eran av "agentisk AI" och positionerar LG bland de få globala företagen som driver denna teknik framåt. Med imponerande prestationer inom matematiska, vetenskapliga och kodande riktmärken med effektiv modellstorlek är EXAONE Deep en betydande framsteg i AI -utvecklingen.
Familjen Exaone Model och deras utveckling
Från början till exaone djupt
Grunden för Exaone Deep lades i december 2020 med grunden för LG AI -forskning. Under ledning av LG Corp-ordföranden Koo Kwang-Mo lanserades forskningsavdelningen med målet att säkerställa LG: s långsiktiga framtid genom AI-teknik. I ett ledningsmöte betonade Koo: "Vi måste utveckla AI med framsyn för att upprätthålla tillväxtmotorer för 2030 -talet."
Utvecklingen av familjen ExaOne Model började med EXAONE 1.0 i december 2021, en "supergiant AI" -modell med cirka 300 miljarder parametrar. Detta följdes av EXAONE 2.0 i juli 2023 och EXAONE 3.0 i augusti 2024, den senare som Sydkoreas första öppna källkod AI -modell var en viktig milstolpe. I slutet av 2024 följde EXAONE 3.5 med förbättrad instruktionsöverensstämmelse och förståelse för längre sammanhang. Exaone Deep bygger på denna utveckling och fokuserar specifikt på resonemang.
Teknisk arkitektur och modellvarianter
Exaone Deep är baserad på en avkodare-på-på-transformatorarkitektur och finns i tre storlekar varianter:
- EXAONE DEEP-32B: Flaggskeppsmodellen med 32 miljarder parametrar och 64 lager, optimerade för maximal resonemang.
- EXAONE DEEP-7.8B: En lätt version med 7,8 miljarder parametrar och 32 lager, vilket erbjuder 95% av prestandan för 32B-modellen till endast 24% av storleken.
- Exaone Deep-2.4B: En on-enhetsmodell med 2,4 miljarder parametrar och 30 lager, som trots sin lilla storlek (7,5% av 32B-modellen) fortfarande når 86% av prestandan.
Alla modeller har ett maximalt sammanhang om 32 768 tokens, vilket är en betydande förbättring jämfört med tidigare modeller. Modellerna utbildades huvudsakligen på resonemangsspecialiserade dataposter som tar hänsyn till långa tankeprocesser, vilket gör att de kan förstå mer komplicerade relationer och dra logiska slutsatser.
Lämplig för detta:
- Företagstänkande misstag: Den vilseledande glöd av engelska webbplatser med exemplet i Sydkorea - mer än bara globalt innehåll krävs
Prestationsfunktioner och referensresultat
Matematisk resonemang och vetenskaplig problemlösning
Exaone Deep visar särskilt imponerande resultat i matematiska och vetenskapliga resonemang. 32B -modellen fick 94,5 poäng på det sydkoreanska universitetets ingångstest (CSAT) i matematikdelen och vid American Invitational Mathematics Examination (AIME) 2024 90,0 poäng, som överträffar konkurrerande modeller.
Med Math-500, ett index för utvärdering av matematiska problemlösningsförmågor, uppnådde det 95,7 poäng. Det är särskilt anmärkningsvärt att modellen uppnår dessa tjänster med endast cirka 5% av storleken på vissa "jättar" -modeller som Deepseek-R1 (671 miljarder parametrar).
Inom området vetenskapligt resonemang fick 32B-modellen i GPQA-diamanttestet, som utvärderade problemlösningsförmågor på doktorandnivå inom fysik, kemi och biologi, 66,1 poäng. Dessa resultat understryker modellens förmåga att förstå och tillämpa komplexa vetenskapliga begrepp.
Kodningskunskaper och allmän förståelse för språk
Exaone Deep bevisar också sin styrka inom området kodning och problemlösning. I LiveCodebench -testet som utvärderar kodningsförmågan nådde 32B -modellen ett värde av 59,5. Detta understryker dess potential för applikationer inom mjukvaruutveckling, automatisering och andra tekniska områden som kräver en hög beräkningsgrad.
I den allmänna förståelsen av språket säkrade modellen den högsta MMLU -poängen (massiv multitask språkförståelse) under koreanska modeller med 83,0 poäng. Detta visar att Exaone Deep inte bara är effektiv i specialiserade resonemang, utan också i den allmänna förståelsen av språket.
Prestationseffektivitet för de mindre modellerna
Prestandan för de mindre modellvarianterna är särskilt anmärkningsvärd. 7.8B-modellen fick 94,8 poäng vid Math-500 och 59,6 poäng i AIME 2025, medan 2.4B-modellen vid Math-500 92.3 poäng och 47,9 poäng för AIME 2024. Dessa resultat placerar de mindre versionerna av exaone djupt i toppen av deras respektive kategorier i alla viktiga benchmarks.
Gemenskapen är särskilt förvånad över prestanda för 2.4B -modellen. I ett Reddit -bidrag noteras att denna lilla modell till och med överskrider den betydligt större Gemma3 27B -modellen i vissa riktmärken. En användare skrev: "Jag menar-du säger till mig själv att en 2.4B-modell (46.6) överskrider Gemma3 27B (29.7) i live-kodens riktmärke?"
Applikationspotential och mening på AI -marknaden
Applikationsområden inom bransch, forskning och utbildning
LG AI -forskning förväntar sig att exaon djupt ska användas inom olika områden. Pressmeddelandet säger: "Exaone Deep kommer inte bara att användas inom professionella områden som behövs av industrier i framtiden, utan också inom vetenskapliga forsknings- och utbildningsområden som fysik och kemi genom att visa höga prestanda inom utvärderingsindikatorer på specialiserade områden som matematik, vetenskap och kodning."
Ett speciellt fokus ligger på enhetsmodellen (2.4b), som kan användas på grund av dess lilla storlek på enheter som smartphones, i bilar och i robotik. Eftersom uppgifterna kan behandlas säkert på enheten utan nödvändig anslutning till externa servrar, erbjuder denna modell fördel för datasäkerhet och skydd av personuppgifter.
Positionering i den globala AI -tävlingen
Med publiceringen av Exaone Deep positionerar LG sig på den allt mer konkurrenskraftiga globala AI -marknaden. Det sydkoreanska teknikföretaget tävlar således i direkt konkurrens med stora teknikföretag som OpenAAI, Google DeepMind och kinesiska AI -utvecklare som Deepseek.
En representant för LG AI-forskning sa: "Vi har meddelat Exaone djupt ungefär en månad efter att ha deltagit i den inhemska AI-industrins tävlingsdiagnos och inspektionsmöte, som hölls i februari vid National Artificial Intelligence Committee i februari och den öppna källkodspublikationen av en Deepseek R1-nivå-modell prospekterar." Representanten tilllade: "Kärnan i LGS KI -tekniken är underhållet av prestanda medan en betydande minskning av modellstorleken."
I en tid då kostnadseffektiva modeller får stor uppmärksamhet efter ökningen av Chinas Deepseek inom resonemangets kapacitet, kan LGS-strategi för att utveckla mindre men kraftfulla modeller vara en strategisk fördel.
Betydelsen av resonemang-KI och "Agentic AI"
Från kunskapski till resonemang-ki
Med Exaone Deep tar LG AI-forskning övergången från "Knowledge KI" till "Reasoning-Ki". Medan traditionella AI-modeller huvudsakligen är inriktade på informationssamtal och tillhandahållande, kan resonemang som Exaone Deep ställa in hypoteser oberoende, kontrollera dem och fatta autonoma beslut baserade på dem.
Denna förmåga markerar inträde i eran av "agentisk AI" - aktiv AI, som kan "tänka" och agera självständigt. LG AI -forskning förklarar: "Agentic AI hänvisar till en aktiv AI som kan fatta autonoma beslut genom att formulera hypoteser oberoende och genomföra slutsatser för att verifiera dem."
Open Source -strategin
En viktig aspekt av Exaone Deep -publikationen är beslutet att tillhandahålla modellen som en öppen källkod. Detta följs av strategin som började med ExaOne 3.0, den första Open Source AI -modellen i Sydkorea.
Open Source -strategin gör det möjligt för utvecklare att använda och utveckla modellen för forskningsändamål utan begränsningar. Detta kan leda till en bredare tillämpning och vidareutveckling av tekniken och stärka LG: s position i det globala AI -ekosystemet.
Kyung-hoon BAE, ordförande för LG AI Research, sa: "Vi planerar att tillhandahålla denna mycket mångsidiga och lätta modell som en öppen källkod så att universitet och forskningsinstitutioner kan använda den senaste generativa AI-tekniken, som bidrar till AI-forskningsekosystemet och ytterligare förbättrar AI-konkurrensförmågan."
Lämplig för detta:
Framtidsutsikter och pågående utveckling
Chatexaone: Den nya standarden för AI-baserad produktivitet i företaget
LG planerar att arbeta med LG -dotterbolag under andra halvåret för att integrera exaone djupt i olika produkter och tjänster. Beroende på applikationen kommer exaons att finnas tillgängliga i olika modellstorlekar, från den ultralättsviktsmodellen för On-Device-KI-tjänster till den högpresterande modellen för specialiserade applikationer.
Ett konkret exempel på den praktiska tillämpningen av EXAONE -teknik är Chatexaone, en KI -agent baserad på ExaOne 3.0 för företag som redan finns som en öppen beta -version för de anställda i LG -gruppen. ChatexaOne erbjuder olika funktioner för att öka arbetskraftsproduktiviteten, inklusive realtid-web-baserade frågeställningar, dokument- och bildbaserade frågesvarssystem, kodningsstöd och databashantering.
Vidareutveckling av AI -expertis inom LG -gruppen
Utvecklingen av Exaone Deep är en del av en större AI -strategi inom LG -gruppen. LG har redan inrättat en intern AI-forskarskola för att främja skräddarsydda ingenjörer med en niomånaders magisterexamen och ett 18-månaders doktorandprogram.
Anställda som tar dessa kurser arbetar med projekt som är svåra att utveckla för enskilda dotterbolag. Som en del av ett pilotprojekt utvecklade LG Display en designteknologi för att rymma fler pixlar på samma skärm, medan LG Electronics och LG Innotek -metoder för exakt efterfrågan prognos med AI, vilket avsevärt kommer att minska lagringskostnaderna.
Varför mindre AI-modeller kan vara ett bättre val-en titt på exaone djup
Med introduktionen av Exaone Deep har LG AI -forskning uppnått en viktig milstolpe i AI -utvecklingen. Som Sydkoreas första resonemang AI -modell baserad på en grundmodell placerar LG den i ett antal ledande globala teknikföretag som utvecklar denna avancerade AI -teknik. Den imponerande prestanda inom matematiska, vetenskapliga och kodande riktmärken med effektiv modellstorlek understryker potentialen för denna modell för olika tillämpningsområden.
Tillvägagångssättet för LG är särskilt anmärkningsvärt att utveckla högpresterande AI-modeller med en relativt liten storlek. Medan många AI -företag förlitar sig på allt större modeller, visar Exaone Deep att med intelligent optimering och specialiserad utbildning kan mindre modeller uppnå högsta prestanda. Detta kunde inte bara erbjuda ekonomiska fördelar, utan också möjliggöra användning av kraftfulla AI -modeller på kantenheter.
Med Open Source -publiceringen av Exaone Deep bidrar LG AI -forskning till det globala AI -forskningsekosystemet och stärker samtidigt Sydkoreas position i International AI -tävlingen. Det återstår att se hur denna teknik implementeras i olika produkter och tjänster i LG -gruppen och vilken innovation det kommer att möjliggöra den i olika branscher.
Lämplig för detta:
Din globala marknadsförings- och affärsutvecklingspartner
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.