Hirdetés

Miért akadt ki az ökoszisztéma az AI-verseny legújabb szereplője, a DeepSeek megjelenésén?

A nyílt forráskódú LLM-modellt fejlesztő, kínai DeepSeek sikeres debütálása a piacon alapjaiban kérdőjelezi meg azt a hiedelmet, hogy az AI-alapmodellek fejlesztéséhez dollármilliárdokra van szükség.

Már-már közhelyszámba megy, hogy az AI-alapmodellek fejlesztése akár dollármilliárdokat is megkövetelhet.

Ennek oka, hogy a modellfejlesztéshez olyan jelentős számítástechnikai teljesítmény kell, aminek során akár a tízezer darabot is meghaladó chipek klaszterbe fűzésére lehet szükség, ami pedig rendkívül magas tőke- és energiaszükséglettel jár.

Nem véletlen, hogy a piacvezető cégek hatalmas összegekkel gazdálkodnak: a ChatGPT-t fejlesztő OpenAI legutóbbi köre önmagában 4 milliárd dollárt tett ki, miközben értékelése 157 milliárd dolláron áll. A Claude-ot fejlesztő Antrophic legutóbbi köre 1 milliárd dollárról szólt, értékelése pedig eléri a 60 milliárd dollárt. Az amerikai versenytársak legígéretesebb európai kihívójának tűnő Mistral AI is nagyot robbantott, amikor 640 millió dolláros Series B kört vont be tavaly júniusban, 6,4 milliárd dollárra felszökő értékelésével pedig Európa legnagyobb értékelésű AI-startupjává vált.

Az ilyen befektetési és értékelési összegeket látva nem véletlen vált ki felhördülést az, ha valaki a ChatGPT teljesítményével vetekvő alapmodellel állít be a piacra, miközben azt állítja: a versenytársak büdzséjének töredékéből érte el ezt a teljesítményt.

A ChatGPT-vel vetekvő LLM, pár millió dollárból és kétezer chipből

Pont ezt valósította meg a mindössze 2023-ban alapított, kínai DeepSeek, ami R1 nevű, nyílt forráskódú, nagy nyelvi modelljével (LLM) januárban debütált a piacon, és már meg is előzte a rivális ChatGPT-t az AppleStore-ban.

A DeepSeek által publikált eredmények alapján modelljük az OpenAI o1modelljéhez hasonló teljesítményt ér el a matematikai, kódolási és következtetési feladatokban. És ami a legmeglepőbb: a startup állítása szerint mindössze 6 millió dollárt kellett költeniük az R1 betanítására,

ami csupán apró töredéke azoknak az összegeknek, amiket a versenytársaik elköltenek. Csak hogy érzékeltessük: a GPT-4 betanítására az OpenAI  több mint 100 millió dollárt szánt. A kínai startup egyébként egyetlen seed kört jegyez az anyavállalatától, a kínai fedezeti alapokkal foglalkozó High-Flyer Quanttól.

Tavaly augusztusban híresség lett Yusuf Dikeç török sportlövő, aki a légpisztolyos vegyes csapat tagjaként lett olimpiai ezüstérmes Párizsban. A sportlövő azzal szerzett hírnevet, hogy zsebre dugott kézzel, profi eszközök nélkül lőtt olyan pontossággal, mint mások profi felszereléssel. Ezt felhasználva figurázza ki az OpenAI-t ez a mém, amelyet az AWS generatív AI vezetője, Eduardo Ordax alkotott.

A költségkülönbség magyarázata a DeepSeek által használt chipek számában rejtőzik:

amíg más modellekhez a fejlesztők akár több mint 16 ezer chipet használnak, addig az R1 modellhez mindössze 2 ezer Nvidia chipre volt szükség a DeepSeek közlése alapján.

A DeepSeek látványos felemelkedésére válaszul érkező tőzsdei pánik azt eredményezte, hogy január 27-e, hétfő nap végére a chipóriás Nvidia részvényei 18 százalékot zuhantak (ami közel 600 milliárd dolláros értékeléscsökkenést jelent), míg az Amazon és a Microsoft részvényei 5 százalék körüli mértékben estek vissza.

Milyen következményei lehetnek a DeepSeek váratlan sikerének?

Mindez alapjaiban kérdőjelezi meg az AI-alapmodellek hatalmas költségeibe vetett hiedelmet. „Ha egy 160 milliárd dollárra értékelt vállalat, mint az OpenAI, 3,7 milliárd dolláros bevétel mellett 5 milliárd dollár veszteséget termel, nem látom, hogy mégis hogyan lehet megtalálni a pénztermeléshez vezető utat” – mondja Umesh Padval, a Thomvest Ventures ügyvezető igazgatója. Hozzátette:

ez ébresztő kell legyen, hogy a csillagászati összeggel operáló term sheeteknek és cégértékeléseknek egyszerűen nincsen értelmük.

Liang Wenfeng, a DeepSeek CEO-ja elmondása szerint az R1 modell alapját az ilyen Nvidia A100-as chipek adták. Forrás: Az Nvidia honlapja

Hogy ennek mi lesz a következménye, arról egyelőre megoszlanak a vélemények. Ami biztos, hogy az alapmodelleket nagy költséggel fejlesztő cégeknek ezután nehezebb lesz megérvelni a befektetőknek, hogy miért kérnek akkora tőkét, amennyit.

Kiváltképp igaz lehet ez az európai alapmodell-fejlesztőkre, akik – mint arra Nathan Benaich, az AI-fókuszú Air Street Capital alapítója és általános partnere rávilágított

már így is nehezen tudták megkülönböztetni magukat az árak vagy a teljesítmény tekintetében az amerikai versenytársaiktól: számukra az R1 modell megjelenése a világ egy másik részéről érkező pofont jelent.

Másrészt mindez kinyithatja a piacot más szereplők előtt is: Thomas Wolf, a Hugging Face francia-amerikai AI-vállalat tudományos vezetője és társalapítója szerint a DeepSeek váratlan sikere megmutatta, hogy közel sincsenek akkora akadályok a minőségi alapmodell-építésben, mint eddig gondoltuk: azt sok csapat meg tudja csinálni.

Aminek viszont igazán nagy lendületet adhat az R1 debütálása, az az alapmodellekből szerteágazó AI-innovációk fejlesztése. William Tunstall-Pedoe, a londoni székhelyű deeptech UnlikelyAI alapítója és vezérigazgatója szerint

„az alapmodellek sokkal alacsonyabb költsége és a nyílt forráskódolás felé való elmozdulás katalizátora a több innovációnak és a nagyobb választéknak, ami csak jól jöhet az ilyen modellekkel AI-technológiát építő startupok számára.”

Rahul Tyagi, a kvantumszámítással foglalkozó SECQAI vezérigazgatója és alapítója viszont arra hívta fel a figyelmet, hogy ettől függetlenül Európa hátrányai az AI-versenyben (mint a fragmentált befektetői piac, a lassabb technológia adaptáció és az agyelszívás) továbbra is léteznek, amik megakadályozhatják, hogy Európa kihasználja a DeepSeek által megnyitott lehetőségeket.

NYITÓKÉP: A DeepSeek logója

Egész Európát el akarja látni AI harci drónokkal a német Helsing

A pár hónapja pivotált startup megnyitotta az első olyan gyárát, ahol tömegesen tudja gyártani a saját fejlesztésű harci drónjait – most éppen Ukrajnának. A Helsing víziója, hogy Európa-szerte hozzon létre még ilyen gyárakat, ahol akár tízezrével gurulhatnak le a gyártószalagról a drónok.

Bővebben

Csúnyán megbukna az AI, ha valódi betegeket kéne diagnosztizálnia

Egy amerikai kutatásban azt vizsgálták, hogy a vezető LLM-modellek képesek-e szimulált orvos-beteg beszélgetésekben kideríteni minden szükséges információt a páciens állapotáról, és felállítani a helyes diagnózist.

Bővebben

Közös edukációs kampányba fog Balogh Petya és a Lightyear

A kampány keretében a két szereplő plakátokon, videókban és webinárokon igyekszik majd emelni a magyar pénzügyi és befektetői tudatosság szintjét. Balogh Petya egyúttal most egy olyan kezdeményezés mellé áll, amely nem köthető saját cégeihez vagy befektetői portfóliójához.

Bővebben

Színház csupán, amit sok nagyvállalat csinál innováció címén – ezen akar változtatni a STRT egy új szolgáltatással

A nagyvállalati innovációs tanácsadás célja, hogy az érintett szereplőket edukálja a kíváncsiságot és kísérletezést elősegítő, a kemény KPI-okat mellőző, fenntartható vállalati kultúra kialakítására, és a gyakorlatban is erősítse az ügyfél innovációs képességeit. A STRT által szervezett háttérbeszélgetésen jártunk.

Bővebben

Így szegmentálódik a kockázatitőke-piac a mesterséges intelligencia finanszírozásában

Az alapmodellek fejlesztésének finanszírozása annyira költséges, hogy csak a dollárszázmilliókat erre költő VC-ket találjuk meg a befektetői listában. Ez azonban nem jelenti, hogy a kis- és közepes méretű VC-k kimaradnak az AI-bummból – mutat rá a PitchBook elemzése.

Bővebben