Hangválasztás 📢


Kimi K2 modell a Moonshot AI-től: Az új nyílt forráskódú zászlóshajó a kínai-egy másik mérföldkő a nyílt AI rendszerek számára

Megjelent: 2025. július 13. / Frissítés: 2025. július 13. - Szerző: Konrad Wolfenstein

AI Kimi K2 modell: Az új nyílt forráskódú zászlóshajó Kínából-egy másik mérföldkő a nyílt AI rendszerek számára

KIMI K2 modell: Az új nyílt forráskódú zászlóshajó Kínából-egy másik mérföldkő a nyitott Ki rendszerekhez: xpert.digital

Trillió paramétermodell Kimi K2 előkészíti a szuverén AI fejlesztését Európában

Egy másik nyílt forráskódú forradalom: Kimi K2 világszínvonalú AI-t hoz az európai adatközpontokban

A Kimi K2 új szintre hozza az Open AI ökoszisztémát. A szakemberek keverékének modellje billió paraméterekkel eredményeket ad a reális programozásban, a matematikában és az ügynökök referenciaprogramjában, a költségek töredékével és a teljesen közzétett súlyokkal. A németországi fejlesztők számára ez lehetőséget ad arra, hogy maguk a nagyteljesítményű AI-szolgáltatások fogadására, a meglévő folyamatok beágyazására és az új termékek fejlesztésére.

Alkalmas:

Miért több a Kimi K2, mint a következő nagy AI modell?

Míg a nyugati laboratóriumok, mint például az Openaai és az antropikus, a legjobb modelljeiket elrejtik a fizetett interfészek mögött, a Monshot AI más kurzust folytat: minden súly nyilvánosan elérhető egy módosított társ-licenc alatt. Ez a lépés nemcsak lehetővé teszi a tudományos reprodukálhatóságot, hanem lehetővé teszi a kis- és közepes méretű vállalatok számára, hogy saját következtetési klaszterüket felépítsék, vagy a Kimi K2-t használják az Edge forgatókönyvekben. A kezdet egy olyan szakaszba kerül, amelyben Kínát a nyílt forráskódú LLM mozgás órájaként hozták létre; A DeepSeek V3 -at júniusig tekintik referenciaértéknek, most Kimi K2 újra beállítja a keresztrúdot.

Építészeti és képzési folyamat

A szakértők keveréke rekordszinten

A Kimi K2 egy innovatív szakértői rendszerre épül, 384 szakértővel, amelyben csak nyolc szakértő és egy globális „megosztott szakértő” aktív. Ez az architektúra lehetővé teszi a következtetési motor számára, hogy mindössze 32 milliárd paramétert töltsön be a RAM -ba egyszerre, ami drasztikusan csökkenti a GPU terhelését. Míg a teljes pontosságú sűrű, 70 milliárd paramétermodellnek már két H100 GPU -ra van szükség, a Kimi K2 összehasonlítható vagy még jobb minőségű, bár csak a súlyok egyharmadát hajtja végre ugyanazon a GPU -kon.

Más modellekkel összehasonlítva a kimi K2 hatékonysága nyilvánvaló: összesen 1000 milliárd paraméterrel a DeepSeek V3-Base meghaladja a 671 milliárd paramétert, és a GPT-4,1 becsült értéke alatt van, körülbelül 1800 milliárd paraméterrel. A Kimi K2 esetében csak 32 milliárd paraméter maradt aktív, szemben a DeepSeek V3 bázis 37 milliárdjával. A Kimi K2 szakértői rendszer 384 szakértőt használ, akik közül nyolcot választanak ki, míg a DeepSeek V3-Base 240 szakértőt használ, nyolc megválasztott. Mindhárom modell támogatja a 128K token kontextushosszát.

Ez a fejlemény azt mutatja, hogy a Moonshot először bocsát ki egy billió paraméterekkel rendelkező nyilvános modellt, és továbbra is a token 40 milliárd paraméter -határértéke alatt marad, ami jelentős előrelépés a nagy nyelvi modellek hatékonyságában.

Muonclip - stabilizálás egy új szabványon

A szuper erős Moe -transzformátorok edzése gyakran szenved a felrobbanó figyelmeztetésektől. A Moonshot tehát egyesíti a token-hatékony MUON optimalizálóval egy downstream "QK-CLIP" FRALIZÁCIÓT, amely normalizálja a lekérdezést és a kulcsmátrixokat az egyes lépések után. Moonshot szerint egyetlen veszteség-tüske sem jelent meg 15,5 billió edzési tokenben. Az eredmény egy rendkívül sima tanulási görbe és egy olyan modell, amely az első kiadás óta stabil.

Adatbázis

15,5 trillió tokenekkel a Kimi K2 eléri a GPT-4 osztályú modellek adatmennyiségét. A klasszikus webes szöveg és kód mellett a szimulált szerszámhívások és a munkafolyamat-párbeszédek előzetesen képzésbe kerültek a horgonyzás képessége felé. A DeepSeek R1-rel ellentétben az ügynöki kompetencia nem elsősorban a láncolási láncon alapul, hanem a tanulási forgatókönyvek alapján, amelyekben a modellnek több API-t kellett összehangolnia.

Benchmark szolgáltatások részletesen

A referencia -szolgáltatások részletes összehasonlításokat mutatnak a három AI modell között a különféle felelősségvállalási területeken. A programozási területen Kimi K2-instr. A Swe-Sench által ellenőrzött tesztben a siker ráta 65,8 százalék, míg a DeepSeek V3 38,8 százalékkal és GPT-4,1-rel 54,6 százalékkal teljesített. A Livecodebench V6-ban, Kimi K2-instr. 53,7 százalék, majd a DeepSeek V3, 49,2 százalék és GPT-4,1, 44,7 százalék. A TAU2 kiskereskedelmi teszt szerszámcsatlakozásában átlagosan négy kísérlet mellett a GPT-44.1 a legjobb teljesítményt éri el 74,8 százalékkal, közvetlenül a Kimi K2-Instr előtt. 70,6 százalékkal és a DeepSeek V3 -val 69,1 százalékkal. A Math-500 matematikai kategóriában pontos megállapodással a Kimi K2-Instr. 97,4 százalékkal, amelyet a DeepSeek V3 követ, 94,0 százalékkal és GPT-4,1-rel, 92,4 százalékkal. Az MMLU általános tudásvizsgálatában, a GPT-4,1, a legjobban 90,4 százalékot tesz, amelyet szorosan követ a Kimi K2-Instr. 89,5 százalékkal, míg a DeepSeek V3 képezi az alját, 81,2 százalékkal.

Az eredmények értelmezése

  1. A reális kódolási forgatókönyvekben a Kimi K2 egyértelműen az összes korábbi nyílt forráskódú modell előtt áll, és a GPT-4 .1-et veri a Swe-Sench által ellenőrzött.
  2. A matematika és a szimbolikus gondolkodás szinte tökéletes; A modell meghaladja a védett rendszereket is.
  3. A tiszta világ ismeretével a GPT-4 .1 még mindig csak előre van, de a távolság kisebb, mint valaha.

Ügynöki készségek a mindennapi életben

Sok LLM jól magyarázza, de nem cselekszik. A Kimi K2-t következetesen kiképezték a feladatok elvégzésére, beleértve a szerszámhívásokat, a kód verzióját és a fájlok adaptációját.

1. példa: Üzleti utazás tervezése

A modell egy vizsgálatot ("Book Repülés, Hotel és Táblázat három ember számára Berlinben") 17 API hívásra bontja: Naptár, repülési aggregátor, Train API, OpenTable, Company-e-mail, Google Sheets-Without kézi gyorsmérnöki munka.

2. példa: Adatelemzés

Egy 50 000 fizetési adatkészlettel rendelkező CSV -t, statisztikailag kiértékelve, egy interaktív HTML oldalként generált és mentett diagramot olvasunk be. Az egész lánc egyetlen chat tornateremben fut.

Miért fontos ez?

  • Termelékenység: A modellválasz nemcsak szöveg, hanem végrehajtható művelet is.
  • Hiba robusztusság: A munkafolyamatokon végzett RL képzés révén a Kimi K2 megtanulja értelmezni a hibaüzeneteket és kijavítani magát.
  • Költség: Az automatizált ügynök megtakarítja az emberi átadást és csökkenti a kontextusköltségeket, mivel kevesebb kerek kirándulásra van szükség.

Licenc, költségek és működési következmények

Engedély

A súlyokat MIT-szerű licencnek vetik alá. Csak a több mint 100 millió havi aktív felhasználó vagy havonta több mint 20 millió dolláros termékek esetén a Moonshot látható "kimi k2" jegyzetet igényel az UI -ban. Ez a legtöbb német vállalat számára nem releváns.

API és öngazdálási árak

Az API és az öngazdálkodási árak egyértelmű különbségeket mutatnak a szolgáltatók között. Míg a Monshot API 0,15 dollárt számol be a bemeneti tokenekre és 2,50 dollárt a output tokenekre / millió, a DeepSeek-API 0,27 dollárba kerül a bemeneti és 1,10 USD a kimenetért. A bemeneti és 30,00 dollár átlagos 10,00 dollárral a GPT-4 O API szignifikánsan drágább.

A MOE technológián keresztüli költséghatékonyság különösen figyelemre méltó: a felhő költségei rendkívül versenyképesekké váltak. Egy gyakorlati példa ezt szemlélteti: A fejlesztő csak körülbelül 0,005 dollárt fizet egy 2000 token csevegésért a Kimi K2-vel, míg a GPT-4-vel folytatott csevegés négy dollárba kerül.

Hardverprofil a házon belüli működéshez

  • Teljes modell (FP16): Legalább 8x H100 80 GB vagy 4 × B200.
  • 4 bites kvantálás: stabilan fut 2 × H100 vagy 2 × Apple M3 Ultra 512 GB.
  • Következési motor: VLLM, SGLang és Tensorrt-LLM támogatja a Kimi K2-t natív módon.

Gyakorlati alkalmazási területek Európában

  1. Ipari 4.0: Automatizált karbantartási tervek, hiba diagnózisok és pótalkatrész -megrendelések ügynöki áramlásként modellezhetők.
  2. Közepes méretű vállalkozások: A helyi csevegőbotok valós időben válaszolnak a beszállítói és az ügyfelek kérdéseire anélkül, hogy adatokat küldnének az amerikai szervereknek.
  3. Egészségügy: A klinikák a KIMI K2-t használják a Codage Doctor leveleihez, a DRG-esetek kiszámításához és a kinevezés koordinációjának-minden helyszínen.
  4. Kutatás és oktatás: Az egyetemek a HPC klaszterek modelljét fogadják el, hogy lehetővé tegyék a hallgatók számára a legújabb LLM -ekkel való ingyenes kísérleteket.
  5. Hatóságok: Az állami intézmények részesülnek a forrás-nyitott súlyokból, mivel az adatvédelmi követelmények megnehezítik a szabadalmaztatott felhőmodellek használatát.

A termelékeny működés legjobb gyakorlatai

Különböző bevált gyakorlatok bizonyultak az AI rendszerek termelõ működésére. A csevegő asszisztensek esetében a hőmérsékletet 0,2–0,3 -ra kell állítani a ténybeli válaszok biztosítása érdekében, míg a felső P értéknek legfeljebb 0,8 -nak kell lennie. A kódgeneráláshoz elengedhetetlen a rendszer -prompt egyértelmű meghatározása, például a „Ön pontos Python asszisztens vagy” utasítással és a megbízható tesztek végrehajtásával. A szerszámhívások esetében a JSON -sémát szigorúan meg kell határozni, hogy a modell formátumú függvény megfelelően hívjon. A rongy csővezetékek a legjobban 800 token méretű és újbóli reteszeléssel működnek, mint például a BGE-Rerank-L, a visszakeresés előtt. A biztonság érdekében elengedhetetlen a kimenő parancsok végrehajtása egy homokozóban, például egy petárdás virtuális gépen, hogy minimalizáljuk az injekciós kockázatot.

Alkalmas:

Kihívások és korlátok

Memória lábnyom

Bár csak 32 B paraméter aktív, az útválasztónak minden szakértő súlyát meg kell tartania. A tiszta CPU következtetés tehát irreális.

Szerszámfüggőség

A tévesen meghatározott eszközök végtelen hurkokhoz vezetnek; A robusztus hibakezelés kötelező.

Hallucinációk

Teljesen ismeretlen API -k esetén a modellfunkciók feltalálhatók. Szigorú érvényesítő szükséges.

Licenc kikötés

Az erős felhasználói növekedéssel a márkázási kötelezettség megbeszélésre kerülhet.

Etika és exportellenőrzések

A nyitottság potenciálisan helytelen alkalmazásokat is készít; A vállalatok felelősek a szűrőrendszerekért.

Nyílt forráskódként mint innovációs motor

A Moonshot AI lépése azt mutatja, hogy a nyitott modellek nemcsak a szabadalmaztatott alternatívák után futnak, hanem bizonyos területeket is uralnak. Kínában egy ökoszisztémát hoznak létre egyetemekből, induló vállalkozásokból és felhőszolgáltatókból, akik közös kutatással és agresszív árképzéssel felgyorsítják a fejleményt.

Európában kettős előnye van:

  • Technológiai hozzáférés az eladó-zárolás nélkül és az európai adatok szuverenitása alatt.
  • A kereskedelmi szolgáltatók költségnyomását, amely a középtávú tisztességes árakon elvárható, összehasonlítható teljesítménygel.

Hosszú távon várható, hogy más billió-moe modellek jelenjenek meg, talán multimodális is. Ha a Moonshot követi a tendenciát, a látást vagy a hanghosszabbítást. Legkésőbb akkor a legjobb „nyitott ügynök” versenyévé válik az AI gazdaság központi mozgatórugója.

Nincs több drágább fekete doboz API: Kimi K2 demokratizált AI fejlesztés

A Kimi K2 egy fordulópontot jelöl: egyesíti a felső teljesítményt, a cselekvési képességet és a nyitott súlyokat egyetlen csomagban. A fejlesztők, a kutatók és az európai vállalatok számára ez a választás valós szabadságát jelenti: ahelyett, hogy a drága fekete doboz API -kre támaszkodna, akkor a megfizethető, hatalmas AI alapot működtetheti, adaptálhatja és integrálhatja. Bárki, aki a korai szakaszban tapasztalatokat szerez az ügynöki munkafolyamatokkal és a MOE infrastruktúrákkal, fenntartható versenyelőnyt teremt az európai piacon.

Alkalmas:

 

Az Ön globális marketing- és üzletfejlesztési partnere

☑️ Üzleti nyelvünk angol vagy német

☑️ ÚJ: Levelezés az Ön nemzeti nyelvén!

 

Digitális úttörő – Konrad Wolfenstein

Konrad Wolfenstein

Szívesen szolgálok Önt és csapatomat személyes tanácsadóként.

Felveheti velem a kapcsolatot az itt található kapcsolatfelvételi űrlap kitöltésével , vagy egyszerűen hívjon a +49 89 89 674 804 (München) . Az e-mail címem: wolfenstein xpert.digital

Nagyon várom a közös projektünket.

 

 

☑️ KKV-k támogatása stratégiában, tanácsadásban, tervezésben és megvalósításban

☑️ Digitális stratégia és digitalizáció megalkotása vagy átrendezése

☑️ Nemzetközi értékesítési folyamatok bővítése, optimalizálása

☑️ Globális és digitális B2B kereskedési platformok

☑️ Úttörő üzletfejlesztés / Marketing / PR / Szakkiállítások


⭐️ Mesterséges intelligencia (AI) -i blog, hotspot és tartalmi hub ⭐️ Kína ⭐️ Xpaper