Hirdetés

Ha az EU nem szabályozná a mesterséges intelligenciát, könnyen elharapózhatna a félelem, és megfojtanánk az innovációt

Márciusban fogadta el az Európai Parlament a világ első átfogó mesterségesintelligencia-szabályozását. Miért volt szükség az ún. AI Act-re? Tartanunk kell-e a robotok lázadásától, vagy attól, hogy a kormány AI-eszközökkel követi a mindennapjainkat? Mit fog érzékelni a felhasználó, és mennyi időbe telhet, mire a jog utoléri a gyorsan fejlődő technológiát? Interjúnk dr. Pokó Diána mesterséges intelligencia és technológiai szakjogásszal.

A mesterséges intelligencia egyik legelterjedtebb popkulturális megjelenítése, amikor a robotok öntudatra ébrednek, és leigázzák az emberiséget. Ezért kell szabályozni az AI-t, hogy elkerüljük a robotok lázadását?

Mit értünk lázadás alatt? Lázadásnak fogható fel az is, ha a mesterséges intelligencia algoritmusa elszabadul, és olyan működésre bírja a szoftvert, amit senki nem szeretett volna, és aminek a kimenetele bizonytalan.

Ha így nézzük, az állítás igaz: az uniós rendelet elfogadásakor tartott sajtótájékoztatón el is hangzott, hogy a szabályozás célja többek között az, hogy a mesterséges intelligenciával átszőtt jövőtől az emberek ne féljenek. Hogy legyen ezen a területen jogbiztonság, szabályozott keretek között működjön az AI, és folyamatosan nyomon lehessen követni a működését.

Erre már csak azért is szükség van, mert nincsen a világnak nagy tapasztalata abban, hogy az AI egy-egy cselekvése milyen kimeneteket szül. 

 

Szóval valóban kell félnünk az AI-tól?

A veszély akkor valós, ha nem teszünk ellene semmit. Ezért is kellett meghatározni olyan alapvető értékeket – mint például az emberi jogok vagy a demokratikus berendezkedés –, amik gátat szabnak a mesterséges intelligencia használatának. Ugyanezek a korlátok megtalálhatóak például az adatvédelem területén is. Általánosságban nézve: a technológiai újításokkal kapcsolatban felmerülő kockázatokat kell megfelelően kezelni. Ide sorolható például az AI mellett a kibervédelem, a digitális piacok és szolgáltatások, vagy az óriási digitális platformok szabályozása.

 

Miről szól az uniós AI Act? Pontosan hogyan szabályozza a mesterséges intelligenciát?

Különböző kockázati csoportokba sorolja a rendelet a mesterséges intelligenciát, és ezekhez rendel követelményeket, amiknek meg kell felelni. Ezek a tiltott, a magas és az alacsony kockázatú AI-rendszerek.

Tiltott technológiának minősülnek az olyan AI megoldások, amiknek a létezéséről az ember nem tud, de befolyásolja a viselkedését. Ilyen lehet például egy fogyatékos személyt vagy egy gyereket manipuláló alkalmazás. De ide tartozik még a közterületen valós idejű biometrikus azonosító rendszerekkel megfigyelést és adattovábbítást lehetővé tevő mesterséges intelligencia

– így nem lehet például AI-t arra használni, hogy valakit ilyen módon megfigyeljünk, még bűnüldözési célból sem, illetve ezt is csak meghatározott esetekben: terrorcselekmények, vagy eltűnt személyek felkutatása kivételt jelenthethetnek. Arra sem lehet használni mesterséges intelligenciát, hogy a társadalom egyes csoportjait alkotó embereket megkülönböztető kategóriákba soroljuk.

Európai parlamenti képviselők az AI Act-ről szóló EP bizottsági szavazáson. Eva Maydell / X

Magas kockázatú rendszereket használnak már például az igazságszolgáltatásban vagy az oktatásban.

Az AI Act ezek esetében komoly kockázatelemzési és folyamatos nyomonkövetési rendszert, naplózást követel meg a mesterséges intelligenciát alkalmazóktól.

Teszi ezt azért, hogy szükség esetén az ember hatékonyan be tudjon avatkozni az AI-rendszer működésébe, és felügyelni tudja az AI döntéshozatalát.

 

Hogyan kell elképzelni a gyakorlatban ezt a beavatkozást?

Ennek gyakorlatát megtapasztalhatjuk például 2024. október 1-jétől, amikortól bevezetésre kerül az e-ingatlan nyilvántartási eljárás Magyarországon. Ez a rendszer elektronikus kapcsolattartást és ügyintézést tesz lehetővé az ingatlan-nyilvántartási eljárásban, és fog alkalmazni mesterséges intelligenciát is bizonyos döntések automatizált meghozatalára.

Bizonyos esetekben, ha egy ingatlan bejegyzésére megérkezik elektronikusan a bejegyzési kérelem, és semmi bonyolító körülmény nincs, a rendszer ügyintéző beavatkozása nélkül be fogja tudni jegyezni a tulajdonjogot. Az új e-ingatlannyilvántartási törvény alapján arról, hogy ez a bejegyzés így megtörtént, minden érintettet tájékoztatni kell, és ha valakiben kétség merül fel ennek kapcsán, lehetősége lesz emberi felülvizsgálatot kérnie. 

 

Jól értem, hogy az AI Act valahol mindig arra fut ki, hogy az ember ellenőrizni tudja a mesterséges intelligenciát, és ha kell, felülbírálni a döntéseit? 

Így van. További biztonsági eleme a rendeletnek, hogy az AI-szoftvereket egy uniós adatbázisban be kell jegyeztetni, és az alapvető algoritmusokat, a működési elvet le kell adni. 

 

Akkor a fejlesztők alapvetően ezt fogják érzékelni változásként? Hogy a beavatkozáshoz és nyomon követéshez szükséges rendszereket is biztosítaniuk kell, és regisztráltatni a szoftverüket a hatóságokkal együttműködve?

Igen, és nekik lesz emiatt a legtöbb feladatuk az uniós AI rendelet nyomán.

 

A mezei felhasználó mit fog érzékelni abból, hogy van az Uniónak AI-szabályozása?

Leginkább azt, hogy figyelmeztető üzeneteket fog kapni, ha mesterséges intelligenciával vagy az általa készített dologgal kerül kapcsolatba. Például tudni fogja, hogy AI-jal, nem egy élő személlyel csetel. Vagy tudni fogja, hogy AI generálta azt a képet, amit néz, és nem lefotózta valaki.

A másik változás, hogy ha úgy gondolod, hogy a mesterséges intelligencia nem megfelelően működik, akkor ezt bejelentheted, és felhagyhatsz, sőt fel is kell hagyjál a használatával. 

Mit fognak érzékelni állami oldalról a döntéshozók és a hatóságok? Sok ember félelme lehet, hogy ha egy olyan erős hatalommal bíró szereplő, mint az állam kezébe adjuk az AI-t, az megállíthatatlan lesz.

Ennek megakadályozására is jött létre az EU Mesterséges Intelligencia Hivatala az Európai Bizottságon belül, amelynek feladata lesz az AI Act betartatása, felügyelete és az alkalmazásban való segítségnyújtás. Az állami szervek által vagy a közszolgáltatások során használt AI-eszközök magas kockázatú mesterséges intelligenciának számítanak, így a már korábban említett szabályokat az államnak is be kell tartania.

 

Ha már említetted: mi a felépítése az EU Mesterséges Intelligencia Hivatalának?

Ez még most van kialakulóban, ahogy az itt dolgozók felvétele is folyamatosan zajlik. Március 27-éig tudtak pályázni a tagállami informatikusok és szakértők arra, hogy itt dolgozzanak.

 

Akkor a szakembergárda az AI Act tagállami szintű betartatására már rendelkezésre áll? Nem kell attól félnem mezei felhasználóként, hogy ha nekem valamilyen gondom van az AI-jal, akkor az ügyemmel a megfelelő szakértelem hiányában bénázni fog a bürokrácia?

Úgy gondolom, nem kell ettől félni. Habár a szabályozást csak márciusban fogadták el, de régóta rendelkezésre állnak az EU-ban azok a szakemberek, akik rengeteg tanulmányt és vizsgálatot folytattak le arról, hogy hogyan nézzen ki ez a szabályozás, és hogyan lehet azt betartatni. Tagállami szinten is megvan szerintem a megfelelő minőségű szürkeállomány, akik az AI Act-tel kapcsolatos munkákat megfelelően el tudják végezni. És mire az AI Act-et kihirdetik, addigra a Mesterséges Intelligencia Hivatal is fel fog állni.

 

Gyakran merül fel az a kritika az AI Act kapcsán, hogy azzal, hogy keretek közé szorítjuk a mesterséges intelligenciát, a fejlődés szabadságát korlátozzuk, és az EU saját piacait lövi lábon.

Ellenkezőleg. Az AI Act logikája, hogy bizalmat és jogbiztonságot teremtsen. Ha nincs szabályozva ez a piac, ha mindenki azt csinál, amit akar, azzal csak táptalajt adunk a félelmeknek. 

 

És mégis ott van egy Franciaország vagy egy Németország, akik a saját AI vállalkozásaik (elsősorban a Mistral AI és az Aleph Alpha) érdekében fékezői voltak az AI Act elfogadásának. A Mistral AI egyik alapítója, Cédric O nyilvánosan ki is jelentette, hogy az AI Act „megölheti” a cégüket.

Úgy gondolom,

a félelem és a bizalmatlanság, ha elharapózik, gátját jelentené hosszú távon az innovációnak, és az EU ezt tartotta szem előtt: az emberek – úgy az EU-ban, mint azon kívül – inkább fognak használni olyan AI-eszközöket, amelyek megfelelő jogi garanciával rendelkeznek. 

Te sem akarsz olyan kenyérpirítót venni, aminek nincsen biztonsági tanúsítványa, és leéghet tőle a lakásod. Ugyanígy: nem fogsz olyan mesterséges intelligenciát használni, amiről nem vagy meggyőződve, hogy biztosított-e az adataid védelme.

Cédric O neve a Mistral AI előtt sem volt ismertelen: 2019-2020 között ő volt Franciaország digitális gazdaságért felelős, 2020-2022 között pedig a a digitális átmenetért és az elektronikus hírközlésért felelős államtitkára. Forrás: Jérémy Barande / Ecole polytechnique

Mi van akkor, ha egy amerikai fejlesztő AI-szoftvere a hazájában teljesen szabályos, de az AI Act követelményeinek nem tesz eleget, és Európában is terjeszkedni akar?

Az uniós piacon nem forgalmazhatja akkor ezt a terméket. Ha ezt mégis megpróbálja, ki lehet őt zárni a piacról, és komoly bírságokkal nézhet szembe. Viszont, hogy ezzel a fejlesztővel az ő országának hatósága kezd-e valamit, arra az AI Act nincsen hatással.

 

Van-e bármi hatása az AI Act-nek – a dark web mintájára – a dark mesterséges intelligenciára? Fel lehet-e vele lépni például az AI által manipulált felvételek ellen, mint amilyen az egyre inkább elterjedő deepfake celebpornó?

Létezik a Büntető Törvénykönyv, mégis követnek el Magyarországon bűncselekményeket. Egy jogi szabályozással nem lehet a jogellenes magatartásokat megakadályozni, csak büntethetővé lehet tenni őket. Viszont az nagyon érdekes jogi szempontból, hogy ezekkel a bűncselekményekkel születni fognak és már születtek is új tényállások a jogban, a bírói gyakorlat pedig fejlődni fog.

 

Milyen büntetőjogi kategóriába esik egyébként Magyarországon, ha valakinek a szájába olyan mondatokat adok egy AI által manipulált felvételen, amiket nem mondott? 

Alapvetően becsületsértést követsz el, ezzel kapcsolatban a Büntető Törvénykönyv önállő tényállást is tartalmaz. Az AI továbbá megváltoztatja a büntetőeljárások menetét is. Korábban, ha volt egy videó- vagy hangfelvételed, az komoly, hiteles bizonyítéknak számított. Most már, hogy ezeket a felvételeket manipulálni lehet, azt szakértői vizsgálaton kell hitelesnek minősíteni ahhoz, hogy használható legyen az eljárásban.

Jogászi szempontból kivételes pillanatban vagyunk akkor most?

Határozottan.

Amióta ember van, azóta valamilyen jogrendszer létezik, a társadalmunkat ez végigkíséri. Ezért nehéz a jogban olyannal találkozni, aminek nincsen semmilyen előzménye. Most pont egy ilyen pillanatban vagyunk, amikor a szemünk előtt születik meg egy teljesen új jogterület.

 

Mennyi idő lehet, mire egy valamirevaló joggyakorlat kialakul a mesterséges intelligencia területén?

Években ezt nem tudom megbecsülni, de arra számítok, hogy mivel a technológia nagyon gyorsan fejlődik, ezért a joggyakorlat kialakulása is hasonlóan gyors lesz. Egyre több jogi ügy fog keletkezni az AI-jal kapcsolatban, amikben döntést kell hozni. 

 

Elképzelhető, hogy pár év múlva félre kell dobni az AI Act-et, vagy radikálisan hozzányúlni? Hiszen az egy olyan technológiai újítást szabályoz, ami viharos gyorsasággal változik, és amire ma kitalálták, az holnap már irreleváns lehet.

Még az is lehet, hogy erre nem kell pár évet várni. De bármi elképzelhető. Még előttünk van, hogy az AI Act-et kipróbáljuk, teszteljük és működtessük a gyakorlatban. Mindenesetre a szabályozási környezetet olyan jogelvekhez kötötték, mint az emberi jogok vagy a demokratikus berendezkedés. Emiatt a szabályozás talán kellően rugalmas ahhoz, hogy ne kelljen kidobni két év múlva. 

 

Minden tagállami kormány mást és mást tud érteni az alatt, hogy milyen egy demokratikus berendezkedés.

Ez igaz, és a kialakuló joggyakorlat tud majd irányt mutatni abban a tagállamoknak, hogy az AI Act-hez kötött emberi és demokratikus alapelveket hogyan kell értelmezni a gyakorlatban.

 

Te mesterséges intelligencia és technológiai szakjogász vagy. Ez mit takar? Mit tanul ott az ember?

Az ELTE indított először és eddig egyedül Magyarországon mesterséges intelligencia és technológiai jogi szakjogász képzést mesterszinten – én is ott végeztem. Ez ugyanolyan másoddiplomai képzés, mint mondjuk az adatvédelmi szakjogász képzés. 

 

Mit tanítanak itt?

Alapvetően két része van a képzésnek. Az egyik azt célozza, hogy a jogász mélyebben megismerje az AI működését, és meg tudja érteni a fejlesztőt. Ezért voltak informatikai tárgyaink.

Így tud elkezdődni a diskurzus a fejlesztő és a jogász között annak érdekében, hogy az AI-rendszerek fejlesztésébe beépülhessenek a jogi szempontok. Az informatikusnak sem érdeke, hogy lefejlesszen valamit, amit nem lehet használni, mert az – nem szándékosan, de – diszkriminatív.

A képzés másik része a mesterséges intelligenciával kapcsolatban felmerülő kérdésekre próbál választ adni különböző szempontokból, mint az adatvédelem, a kibervédelem, az alkotmányjog, vagy az AI gyakorlati alkalmazása.

Volt már olyan beszélgetésed fejlesztővel, amikor rá kellett mutatnod arra, hogy a megoldása valamilyen jogelvbe ütközik?

Olyan beszélgetésem volt, hogy a fejlesztő bevallotta nekem, hogy a megoldás jogi aspektusaira egyáltalán nem gondolt. És ez nem is várható el tőle, mert nem jogász, a saját szakterületén viszont jó munkát végzett, és megoldotta a problémát. De kell a jogi edukáció a fejlesztői oldalnak, amit mi, szakjogászok meg tudunk adni – és nekünk is értenünk kell azt, hogy ők hogyan dolgoznak.

 

Neked mint mesterséges intelligencia és technológiai szakjogásznak mi akkor tulajdonképpen a feladatod? Az, hogy meg tudj ítélni egy AI-jal kapcsolatos jogesetet, vagy hogy betöltsd a szakadékot a jog és a mesterséges intelligenciát fejlesztők között?

Mindkettő. De mivel egy új területről van szó, rajtunk múlik, hogy a tudásunkkal mit kezdünk, és konkrétan milyen területtel foglalkozunk. Az AI olyan dolog, ami az élet számos területével összefonódik, így az ezzel foglalkozó szakjogászok előtt is rengeteg lehetőség áll.

NYITÓKÉP: Pokó Diána a Figyelő és a Világgazdaság Évadnyitó Innovációs Konferenciáján. Forrás: Vémi Zoltán Figyelő / VG

Európában az energiaiparba áramlik leginkább a kockázati tőke

2024-ben eddig 5,7 milliárd dollár értékben kaptak a startupok európai kockázatitőke-befektetést energiaipari innovációk fejlesztésére. Ez egy viszonylag új, 2023-ban kezdődött trend: annak előtte az energiaipart megelőzték a pénzügyi és az egészségügyi innovációk, valamint a vállalati szoftverek. Mutatunk 5 darab grafikont arról, hogy a Dealroom Europe Tech Update elemzése szerint eddig idén hogyan áll az európai

Bővebben

Mit jelent impact alapon befektetni, és miért fontos a startupoknak, hogy mérjék a társadalmi hatásukat?

A Startup Safari 0. napján Bedő Beatrix, Szakacsits Szabolcs, Károlyi Antal és Eszter Elemér járták körbe, hogy milyen félreértések övezik a társadalmi hatásokat fókuszba helyező, úgynevezett impact befektetéseket, milyen nehézségei vannak itthon egy impact alapon építkező vállalkozónak, és mire van szükség a fejlődéshez.

Bővebben

A fejlett ökoszisztémák húzzák fel a kockázatitőke-befektetéseket 2024 első felében

A kockázatitőke-befektetések számát és mértékét az olyan fejlett ökoszisztémák húzzák felfelé 2024-ben, mint az USA, Kína és az Egyesült Királyság. Mutatunk 5 darab grafikont arról, hogy a Dealroom Global Tech Update elemzése szerint eddig idén hogyan áll a globális kockázati tőke.

Bővebben

Bátrabb vállalkozókat nyernénk azzal, ha nyíltan beszélnénk a term sheetekről

Bedő Beatrix szerint nem szabadna, hogy tabu legyen a befektetések pénzügyi és egyéb feltételeit összefoglaló dokumentum, a term sheet. Ha erről nyíltabban beszélnénk, olyan vállalkozókat nevelnénk, akik tájékozottabbak és nem kiszolgáltatottak a befektetőknek.

Bővebben

Hogyan ne égj ki, ha startupot építesz?

A startupszféra fokozottan kitett a kiégésnek: ott, ahol a munka nagyfokú elköteleződést, odaadást kíván meg, könnyű elveszítenie az embernek saját magát, és nehéz határt vonni. Hogyan csapja be magát a startupper, és hazudja ünnepnek a munkát? Hogyan tehetünk a kiégés ellen csapatszinten és egyénileg? Erről beszélgetett a Startup Safarin Bélavári Virág, a Munch marketingmenedzsere, valamint

Bővebben

Befektetői találkozót tart július 10-én a jótékonysági applikációt fejlesztő Sharity

A tőkével rendelkező cégeket, a jó ügyekért síkra szálló civil szervezeteket és az adományozó magánszemélyeket összekötő startup célja, hogy kilépjen a nemzetközi piacra – ehhez keres a Tőkeportál közösségi finanszírozási kampányán keresztül befektetőket.

Bővebben

Eszter Elemér: Nagyon utálom, amikor valaki a Hiventures-t piszkálja

Az angyalbefektető szerint a Hiventures egy, a nemzetközi gyakorlatban szokványos gazdaságélénkítő eszköz, ami betölti a funkcióját: megtanítja a vállalkozónak, hogy milyen az, amikor van pénze, és hozzájárul a tapasztalatot szerző vállalkozói réteg gyarapításához. Azt a szellemi munkát ugyanakkor nem spórolhatja meg az ökoszisztéma, hogy hogyan születhet minél több magyar sikersztori.

Bővebben

Nemzetközi franchise lehet a MyFarm-ból annak új befektetője, az első hazai McDonald’s tulajdonosa jóvoltából

Egy családi cégnek indult közösségi kert modellt vinne az európai piacra a McDonald’s korábbi marketing igazgatótanácsi elnöke, Kercsmár András, aki a nemzetközi franchise kiépítése mellett a marketingben is segíti a MyFarm csapatát.

Bővebben