Hirdetés

Léphetett a Meta az új kihívója, a DeepSeek megjelenésére?

A Mark Zuckerberg nevével fémjelzett Meta olyan dokumentumot adott ki, ami ki nem mondva is demonstrálja: az általuk fejlesztett mesterséges intelligencia biztonságosabb, mint a kínai DeepSeek megoldásai.

Eléggé felforgatta a startupvilágot a kínai DeepSeek R1 nevű, nyílt forráskódú, nagy nyelvi modelljének januári megjelenése a piacon, ami az OpenAI o1 modelljéhez hasonló teljesítményt ér el a matematikai, kódolási és következtetési feladatokban. Mindezt úgy, hogy a megszokott dollárszázmilliók helyett mindössze 6 millió dollárt kellett költeni az R1 betanítására – az alacsony összeg oka pedig a modellhez használt chipek alacsony számában keresendő.

A DeepSeek debütálása ezért alapjaiban kérdőjelezte meg az olyan szereplők, mint az OpenAI, az Antrophic, a Meta vagy a Mistral AI magas befektetéseit és cégértékeléseit. Erről bővebben ebben a cikkünkben írtunk.

A kínai vetélytárs felfutása után alig egy héttel a Mark Zuckerberg nevével fémjelzett és a Llama nevű alapmodelljével az AI-versenybe benevezett Meta kiadott egy dokumentumot Frontier AI Framework (Élvonalbeli AI keretrendszer) néven,

amellyel a cég azt üzenhette a felhasználóknak: bennünk bízhattok, ellentétben a DeepSeekkel.

Igaz, Zuckerberég már tavaly megígérték, hogy ezzel a dokumentummal előrukkolnak a 2025. február 10-11-i, franciaországi AI Action Summitra, szóval kijelenteni nem lehet, hogy a keretrendszer publikálásával a Meta a DeepSeek felemelkedésére reagált.

Hogyan szabályozza a Meta a saját AI-fejlesztéseit?

A keretrendszerrel az amerikai cég tulajdonképpen arra a félelemre ad választ, amire az európai uniós döntéshozók is igyekeztek a tavaly elfogadott AI Act-tel:

hogyan akadályozzuk meg a mesterséges intelligencia rossz célokra, például kiber-, vegyi vagy biológiai támadásokra való felhasználását?

A Frontier AI Framework ennek mentén három csoportba sorolja a saját AI-fejlesztéseit:

  • A mérsékelt kockázatú modellekkel nem lehet jelentős előrelépést tenni az AI rossz célú felhasználása felé, így azokat – a modell kiadásakor meghatározott biztonsági intézkedésekkel – piacra lehet dobni.
  • A magas kockázatú modellekkel jelentős előrelépést lehet tenni egy fenyegető esemény felé, azaz: potenciálisan nagy segítség lehet egy kiber-, vegyi vagy biológiai támadás végrehajtására, de önmagában a modell felhasználása kevés ennek bekövetkeztéhez. Ezeket a modelleket a Meta nem fogja kiadni, helyette a hozzáférést – a hackertámadások és a modell kiszivárgását megakadályozó intézkedések mellett – egy kutatócsoportra korlátozza, akiknek a feladata a modell mérsékelt kockázatúvá fejlesztése lesz.
  • A kritikus kockázatú rendszerek pedig már önmagukban képesek lehetnek – rossz kezekbe kerülve – egy katasztrofális kimenetelű támadást előidézni, és ennek a kockázatát az adott pillanatban nem lehet mérsékelni. Ekkor a Meta teljesen leállítja a modell fejlesztését, és a hozzáférést egy szigorúan szűk szakértői körre korlátozza a megfelelő biztonsági intézkedések mellett. Ezenfelül a modell további lehetséges felhasználási veszélyeit részletesen körüljárja, és megvizsgálja, hogy hogyan lehet a modellt mérsékelt kockázatúvá tenni.
Forrás: Trusted Reviews

Érdekesség, hogy az egyes modellek veszélyszintjét a Meta nem egy kvantitatív mérőszámmal határozza meg, mert szerinte jelenleg a tudomány nem tud adni egy olyan egzakt mérőszámot, amivel tényleg jól meghatározható egy AI-modell veszélyessége. Ehelyett a cég a saját és esetenként külső szakértők segítségével vizsgálja meg, hogy az adott modellt a különböző szereplők mire és hogyan használhatják fel, a megállapított veszélyszintre pedig a felsővezetők mondanak áment.

Hogy jön ide a DeepSeek?

Minderre már csak azért is szükség van a Metánál, mert Zuckerberég a saját AI-megoldásaikat nyíltan elérhetővé teszik, azaz a rendszereik működése átláthatóvá és más célokra történő felhasználásra is alkalmassá válik a felhasználók számára. Ezzel szemben például az OpenAI egy alkalmazásprogramozási interfésszel (API) eltakarja a rendszer működésének belső részleteit, így kontrollálva AI-modelljeik felhasználhatóságát.

Van azonban egy szereplő, aki a Metához hasonlóan nyíltan elérhető modelleket fejleszt, viszont érdemi garanciát nem adott még arról, hogy a megoldásai nem fognak hozzájárulni a felhasználók átveréséhez vagy lebombázásához egy új biológiai fegyverrel: ez a kínai DeepSeek.

A most publikált Frontier AI Framework tehát egyúttal a Meta és a DeepSeek közötti kockázati különbségek hangsúlyozására is alkalmas – mégha az nem is jelenthető ki, hogy ez biztosan szándéka volt a Metának.

NYITÓKÉP: Mark Zuckerberg, a Meta CEO-ja. Forrás: Anthony Quintano / Flickr

Egész Európát el akarja látni AI harci drónokkal a német Helsing

A pár hónapja pivotált startup megnyitotta az első olyan gyárát, ahol tömegesen tudja gyártani a saját fejlesztésű harci drónjait – most éppen Ukrajnának. A Helsing víziója, hogy Európa-szerte hozzon létre még ilyen gyárakat, ahol akár tízezrével gurulhatnak le a gyártószalagról a drónok.

Bővebben

Csúnyán megbukna az AI, ha valódi betegeket kéne diagnosztizálnia

Egy amerikai kutatásban azt vizsgálták, hogy a vezető LLM-modellek képesek-e szimulált orvos-beteg beszélgetésekben kideríteni minden szükséges információt a páciens állapotáról, és felállítani a helyes diagnózist.

Bővebben

Közös edukációs kampányba fog Balogh Petya és a Lightyear

A kampány keretében a két szereplő plakátokon, videókban és webinárokon igyekszik majd emelni a magyar pénzügyi és befektetői tudatosság szintjét. Balogh Petya egyúttal most egy olyan kezdeményezés mellé áll, amely nem köthető saját cégeihez vagy befektetői portfóliójához.

Bővebben

Színház csupán, amit sok nagyvállalat csinál innováció címén – ezen akar változtatni a STRT egy új szolgáltatással

A nagyvállalati innovációs tanácsadás célja, hogy az érintett szereplőket edukálja a kíváncsiságot és kísérletezést elősegítő, a kemény KPI-okat mellőző, fenntartható vállalati kultúra kialakítására, és a gyakorlatban is erősítse az ügyfél innovációs képességeit. A STRT által szervezett háttérbeszélgetésen jártunk.

Bővebben