A Mark Zuckerberg nevével fémjelzett Meta olyan dokumentumot adott ki, ami ki nem mondva is demonstrálja: az általuk fejlesztett mesterséges intelligencia biztonságosabb, mint a kínai DeepSeek megoldásai.
Eléggé felforgatta a startupvilágot a kínai DeepSeek R1 nevű, nyílt forráskódú, nagy nyelvi modelljének januári megjelenése a piacon, ami az OpenAI o1 modelljéhez hasonló teljesítményt ér el a matematikai, kódolási és következtetési feladatokban. Mindezt úgy, hogy a megszokott dollárszázmilliók helyett mindössze 6 millió dollárt kellett költeni az R1 betanítására – az alacsony összeg oka pedig a modellhez használt chipek alacsony számában keresendő.
A DeepSeek debütálása ezért alapjaiban kérdőjelezte meg az olyan szereplők, mint az OpenAI, az Antrophic, a Meta vagy a Mistral AI magas befektetéseit és cégértékeléseit. Erről bővebben ebben a cikkünkben írtunk.
A kínai vetélytárs felfutása után alig egy héttel a Mark Zuckerberg nevével fémjelzett és a Llama nevű alapmodelljével az AI-versenybe benevezett Meta kiadott egy dokumentumot Frontier AI Framework (Élvonalbeli AI keretrendszer) néven,
amellyel a cég azt üzenhette a felhasználóknak: bennünk bízhattok, ellentétben a DeepSeekkel.
Igaz, Zuckerberég már tavaly megígérték, hogy ezzel a dokumentummal előrukkolnak a 2025. február 10-11-i, franciaországi AI Action Summitra, szóval kijelenteni nem lehet, hogy a keretrendszer publikálásával a Meta a DeepSeek felemelkedésére reagált.
Hogyan szabályozza a Meta a saját AI-fejlesztéseit?
A keretrendszerrel az amerikai cég tulajdonképpen arra a félelemre ad választ, amire az európai uniós döntéshozók is igyekeztek a tavaly elfogadott AI Act-tel:
hogyan akadályozzuk meg a mesterséges intelligencia rossz célokra, például kiber-, vegyi vagy biológiai támadásokra való felhasználását?
A Frontier AI Framework ennek mentén három csoportba sorolja a saját AI-fejlesztéseit:
- A mérsékelt kockázatú modellekkel nem lehet jelentős előrelépést tenni az AI rossz célú felhasználása felé, így azokat – a modell kiadásakor meghatározott biztonsági intézkedésekkel – piacra lehet dobni.
- A magas kockázatú modellekkel jelentős előrelépést lehet tenni egy fenyegető esemény felé, azaz: potenciálisan nagy segítség lehet egy kiber-, vegyi vagy biológiai támadás végrehajtására, de önmagában a modell felhasználása kevés ennek bekövetkeztéhez. Ezeket a modelleket a Meta nem fogja kiadni, helyette a hozzáférést – a hackertámadások és a modell kiszivárgását megakadályozó intézkedések mellett – egy kutatócsoportra korlátozza, akiknek a feladata a modell mérsékelt kockázatúvá fejlesztése lesz.
- A kritikus kockázatú rendszerek pedig már önmagukban képesek lehetnek – rossz kezekbe kerülve – egy katasztrofális kimenetelű támadást előidézni, és ennek a kockázatát az adott pillanatban nem lehet mérsékelni. Ekkor a Meta teljesen leállítja a modell fejlesztését, és a hozzáférést egy szigorúan szűk szakértői körre korlátozza a megfelelő biztonsági intézkedések mellett. Ezenfelül a modell további lehetséges felhasználási veszélyeit részletesen körüljárja, és megvizsgálja, hogy hogyan lehet a modellt mérsékelt kockázatúvá tenni.
Forrás: Trusted Reviews
Érdekesség, hogy az egyes modellek veszélyszintjét a Meta nem egy kvantitatív mérőszámmal határozza meg, mert szerinte jelenleg a tudomány nem tud adni egy olyan egzakt mérőszámot, amivel tényleg jól meghatározható egy AI-modell veszélyessége. Ehelyett a cég a saját és esetenként külső szakértők segítségével vizsgálja meg, hogy az adott modellt a különböző szereplők mire és hogyan használhatják fel, a megállapított veszélyszintre pedig a felsővezetők mondanak áment.
Hogy jön ide a DeepSeek?
Minderre már csak azért is szükség van a Metánál, mert Zuckerberég a saját AI-megoldásaikat nyíltan elérhetővé teszik, azaz a rendszereik működése átláthatóvá és más célokra történő felhasználásra is alkalmassá válik a felhasználók számára. Ezzel szemben például az OpenAI egy alkalmazásprogramozási interfésszel (API) eltakarja a rendszer működésének belső részleteit, így kontrollálva AI-modelljeik felhasználhatóságát.
Van azonban egy szereplő, aki a Metához hasonlóan nyíltan elérhető modelleket fejleszt, viszont érdemi garanciát nem adott még arról, hogy a megoldásai nem fognak hozzájárulni a felhasználók átveréséhez vagy lebombázásához egy új biológiai fegyverrel: ez a kínai DeepSeek.
A most publikált Frontier AI Framework tehát egyúttal a Meta és a DeepSeek közötti kockázati különbségek hangsúlyozására is alkalmas – mégha az nem is jelenthető ki, hogy ez biztosan szándéka volt a Metának.
NYITÓKÉP: Mark Zuckerberg, a Meta CEO-ja. Forrás: Anthony Quintano / Flickr