A kínai AI startup egy évvel azután tért vissza, hogy a többi modell költségének töredékéért „világvezető” feldolgozási teljesítményével felpörgette az AI-ipart.
A mesterséges intelligenciával foglalkozó kínai DeepSeek cég bemutatta új, nagy nyelvi modelljének, a V4-nek az előzetesét, miközben a globális mesterségesintelligencia-verseny felgyorsul.
A DeepSeek tavaly az egyik leginkább figyelt mesterséges intelligencia-vállalat lett, miután 2025 januárjában olyan modelleket adott ki, amelyek úgy tűnt, hogy jó teljesítményt nyújtottak alacsonyabb költségek mellett, mint sok amerikai rivális.
A Hangzhou-i startup DeepSeek V4-Pro és DeepSeek V4-Flash néven adta ki a modellt. A V4-Pro egy nagyobb modell, amely az igényesebb feladatokat célozza meg, míg a V4-Flash egy kisebb verzió, amely gyorsabb reagálásra és olcsóbb működésre készült.
„A világ tudásszintjét tekintve a DeepSeek V4-Pro jelentős mértékben vezet más nyílt forráskódú modellekhez, és csak kis mértékben múlja felül a felső kategóriás zárt forráskódú Gemini-3.1-Pro modellt” – mondta DeepSeek.
A vállalat szerint az új mesterséges intelligencia modell támogatja az „egymilliós token kontextushosszt”, ami azt jelenti, hogy sokkal nagyobb kéréseket, például hosszú dokumentumokat vagy kódokat fogadhat be, mielőtt választ adna.
Az AI-ban a kontextus hossza azt a szövegmennyiséget jelenti, tokenben mérve, amelyet a modell egyszerre képes figyelembe venni. Az IBM szerint egy nagyobb kontextusablak lehetővé teszi, hogy a mesterséges intelligencia modell hosszabb bemeneteket dolgozzon fel, és minden kimenetben több információt tartalmazzon.
„Üdvözöljük a költséghatékony, 1 millió kontextushosszúság korszakában” – mondta a vállalat a Hugging Face, egy nyílt forráskódú mesterséges intelligencia platformon közzétett közleményében.
A DeepSeek azt is elmondta, hogy a V4 „világvezető hosszú környezetet kínál drasztikusan csökkentett számítási és memóriaköltségekkel”.
A DeepSeek összehasonlította a V4-Pro-t az OpenAI, az Anthropic és a Google rivális modelljeivel, bár a Google Gemini-3.1-Pro-ja magasabb pontszámot ért el néhány tesztben.
Az új modell használható olyan népszerű mesterséges intelligencia-ügynökökkel, mint a Claude Code, az OpenClaw és az OpenCode, így a fejlesztők a DeepSeek saját chatbotján kívüli szoftveres feladatokhoz is használhatják a modellt.
A zárt mesterséges intelligencia-modellekkel rendelkező riválisainál nyitottabb megközelítéséről ismert DeepSeek letölthetővé tette a V4-et, amelyet ingyenesen teszteltek és adaptáltak a Hugging Face-en.
A kínai startup 2024 végén felkeltette a figyelmet nyílt forráskódú V3-as modelljével, amely meglepte az AI-ipart erős teljesítménnyel, alacsonyabb költségek mellett és kevésbé erős chipek használatával, mint sok amerikai rivális, köztük az OpenAI és a Google.
A globális AI-verseny
A vállalat 2025 januárjában felkeltette a világ figyelmét, amikor kiadta az R1-et, egy mesterséges intelligencia modellt, amely a vállalat állítása szerint olcsóbb, és ugyanolyan jól teljesít, mint az OpenAI riválisának, a ChatGPT-nek a nagy nyelvi modelljei.
Néhány ország azonban tavaly megtiltotta a kormányhivataloknak a DeepSeek használatát, így Olaszországban, az Egyesült Államokban és Dél-Koreában nemzetbiztonsági aggályokra hivatkozva.
Németország 2025-ben a felhasználói adatok Kínába történő illegális továbbítására hivatkozva betiltotta a DeepSeeket az Apple és a Google alkalmazásboltjaiban is.
A V4 megjelenése egy nappal azután következik be, hogy az amerikai AI-óriás, az OpenAI piacra dobta legújabb mesterségesintelligencia-modelljét, a GPT-5.5-öt, amelyet az eddigi „legokosabb és legintuitívabb”-nak nevezett.
A kiadás egy nappal azután is megjelent, hogy a Fehér Ház megvádolta Kínát, hogy több ezer proxy fiók segítségével ipari méretekben ellopta az amerikai AI laborok IP-jét.
Az OpenAI, az Anthropic és a Google idén arra figyelmeztetett, hogy a kínai mesterségesintelligencia-cégek, köztük a DeepSeek modellkivonási támadásokat (MEA), más néven „lepárlás” hajtottak végre.
A módszer több ezer kérdéssel táplálja a nagyobb modellt, összegyűjti a válaszait, és ezekkel a válaszokkal megtanít egy új, kisebb modellt ugyanilyen gondolkodásra.





