Vitathatatlan, hogy mai világunkat átható erővel szövi keresztül-kasul a mesterséges intelligencia.
A mesterséges intelligencia (angolul AI, magyarul MI) világszerte forradalmasítja az iparágakat, növeli a termelékenységet és alakítja a jövőt. Legfőképp a technológia jövőjét. Az MI egy összetett technológia, amelyet a legtöbb ember nem ért teljesen. Így az ismeretlentől való félelem, amit gyakran sci-fi narratívák is táplálnak, már létrehozta az úgynevezett AI-szorongást. Nem véletlen tehát, hogy az évtized egyik legtöbbet vitatott témája az európai jogalkotókat arra sarkallta, hogy a mesterséges intelligencia körüli növekvő aggodalmakra megnyugtató válaszokat, megoldást, szabályozási keretet adjanak. És voilà! Itt az első mesterséges intelligencia törvény.
Bár a nagyközönség kicsit több mint egy évvel ezelőtt fedezte fel a mesterséges intelligenciát a ChatGPT-vel, fontos rávilágítani, hogy a generatív AI, amely annak alapját képezi, csak egy a különféle mesterségesintelligencia-típusok közül. Hiszen különféle AI-alkalmazások már korábban is jelen voltak a mindennapi életünkben. Mivel azt már korábbról tudjuk, hogy a mesterséges intelligencia miatti aggodalom társadalmanként eltérő mintázatot, jelleget mutat, úgy tűnik az európai hozzáállás valóban felelős gondolkodást jelent. Az első mesterséges intelligencia törvény ugyanis, szándékát tekintve, a mesterséges intelligencia kutatási és ipari kapacitásának megerősítése az alapvető jogok garantálása mellett áll ki. Talán azért is, mert sokaknak leesett a tantusz, hogy jócskán le vagyunk maradva a technológiai versenyben.
2018-tól is indulhatnánk, de inkább rögtön az eredményre fókuszálva jelezzük, hogy 2024. március 13-án az EU parlamentje elfogadta a régóta várt mesterséges intelligencia törvényt. Bár a törvény szövege rendelkezésre áll, sok minden még mindig nem ismert arról, hogy az AI-törvény milyen hatással lesz a digitális világra. dr. Ződi Zsolt jogász, a Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézet tudományos főmunkatársa már a 2010-es évek közepe óta foglalkozik a témával. 2018-ban már könyve is jelent meg ebben a témában, így egészen biztosan többet tud nálunk, ezért készítettünk vele interjút.
– TudományPláza: A rendelet célja, hogy megvédje az alapvető jogokat, a demokráciát, a jogállamiságot és a környezeti fenntarthatóságot a magas kockázatú mesterséges intelligenciával szemben. Mindeközben fellendíti az innovációt és vezető szerepet biztosít Európának ezen a területen. Emellett mesterséges intelligenciára vonatkozó kötelezettségeket állapít meg a potenciális kockázatok és a hatás mértéke alapján. Miért van nagy jelentősége ennek a törvénynek?
– dr. Ződi Zsolt: A Mesterséges Intelligencia Jogszabály (AI Act) egy rendeleti formában született EU-s jogszabály. Ez a világon első, a mesterséges intelligenciát átfogóan, az élet csaknem minden területén szabályozni kívánó dokumentum. A jelentőségét ez az elsősége adja, és az, hogy a világ az Adatvédelmi rendelet megszületése óta hajlamos az Európai Unió szabályozási megoldásaira egyfajta példaként tekinteni, és ezeket követni. Az EU döntéshozói most is ezt várják és remélik.
– Miért fontos, hogy az Európai Parlament technológia-semleges, egységes definíciót kívánt kialakítani a mesterséges intelligencia fogalmára?
– A jogszabályok nem működnek csak akkor, ha pontosan megmondják, mire terjed ki a hatókörük. Ehhez pontos definíciók kellenek. Különben például egy szoftvercég honnan tudja majd, hogy az ő rendszerére kiterjed-e a szabályozás? Másrészt ennek a definíciónak tartósnak kell lennie, hogy ne kelljen állandóan módosítani a szöveget. A rendelet első tervezete még tartalmazott bizonyos technológiai megoldásokat, amelyek jelenleg a mesterséges intelligenciát „hajtják”, például a gépi tanulást. Ezek azután kikerültek, így született meg az a definíció, amelyben az autonómia (a környezethez való alkalmazkodás képessége) és a következtetés (inference) képessége szerepel, mint a két legfontosabb nem-technológiai fogalmi elem, amely a mesterséges intelligencia jellemzője. A következtetés képessége alatt azt értjük, hogy ezek a rendszerek nem determinisztikusak. Azaz ugyanarra az inputra más és más outputokat képesek adni, vagy legalábbis ezt a látszatot kelteni.
– A kockázatalapú megközelítés mennyiben új és pontosan mit jelent?
– A kockázatalapú megközelítés általában jellemzi az európai termékmegfelelőségi szabályozást, amelybe az MI-rendelet is tartozik. Ez azért egy jó szabályozási módszer, mert csak a legkockázatosabb, leginkább veszélyes mesterséges intelligencia gyakorlatok esetén ír elő szigorú szabályokat. Azokban az esetekben, amikor az élet, a testi épség, vagy valamilyen komoly emberi jog nem látszik megsérülni, a rendelet nem akar beavatkozni a kreatív üzleti ötletek megvalósításába. Így elfogadhatatlan kockázatnak minősíti a tudatalatti manipulációra használt MI-ket, a társadalmi pontozási rendszert segítő MI-ket, a köztéri arcfelismerés egyes eseteit. Magas kockázatúak a kritikus infrastruktúrát üzemeltető MI-k, bizonyos terméktípusok, (pl.: gépek) biztonsági rendszereibe beépített MI-k, vagy a rendőri munkában, illetve a határrendészetben használt MI-k. A rendelet a legtöbb MI-t alacsony kockázatúnak sorolja be. Így például egy ügyfélszolgálati chatbot esetén csak tájékoztatási kötelezettséget ír elő, vagy például a szintetikus tartalmak esetén megjelölési kötelezettséget. Ugyanakkor például a nagy platformok ajánlóalgoritmusai, vagy moderálóalgoritmusai alacsony kockázatúnak minősülnek, és – legalábbis ebben a rendeletben – nincsen velük kapcsolatban a tulajdonos cégeknek kötelezettsége. Más kérdés, hogy más jogszabályok alapján, (elsősorban a Digitális Szolgáltatásokról szóló rendelet alapján) nagyonis sok van.
– A hétköznapi ember számára a legtöbb MI lényegében láthatatlan. Kiket érint igazán ez a szabályozás?
Elsőként tisztázzuk, hogy MI-rendeletnek más a szabályozási logikája. Az AI Act nem azt szabályozza, kinek a tulajdona a valamilyen képgenerálóval rajzoltatott kép, nem tiltja be a deepfaket és nem azt írja elő, hogy a beadandó dolgozatokat lehet-e vagy sem Chat GPT-vel írni. A szabályozás első sorban a mesterséges intelligenciák fejlesztőit (szolgáltatóit) és alkalmazóit érinti, az ő kötelezettségeiket tartalmazza. Az előbbiek azok a szoftvercégek, akik ilyen rendszereket hoznak létre, az alkalmazók pedig azok, akik az adott szoftvert vagy rendszert az üzleti vagy közigazgatási tevékenységük során használják. Mivel ma már vannak olyan rendszerek, amelyek emberként képesek kommunikálni és nem lehet őket megkülönböztetni egy embertől, a rendelet erre az esetre írja elő, hogy a felhasználókat mindenképpen tájékoztatni kell, ha mesterséges intelligenciával kerülnek kapcsolatba. Aki AI-tartalmakat állít elő, az köteles mindenkit tájékoztatni, hacsak magából a tartalomból ez nem egyértelmű. Egy film esetén például elég lesz az elején egy felirat, valószínűleg. De ez a rendelet nem tartalmazza a kártérítési igények kérdését. Erről az EU egy másik, irányelv formájú jogszabályt készül hozni. A lényege az lesz, hogy a mesterséges intelligencia miatt kárt szenvedettek helyzetét az irányelv igyekszik megkönnyíteni. Például nem nekik kell bizonyítani, hogy a rendszer hibás volt, hanem a fejlesztőnek vagy az alkalmazónak, hogy nem volt az.
– Mit jelent, gyakorlati oldalról nézve, hogy ez a szabályozás ex ante?
– Azt, hogy a mesterséges intelligenciák létrehozásának, a szoftver programozásának, tanításának és tesztelésének egészen a kezdeteitől, majd a felhasználás teljes időtartama alatt vonatkozik a fejlesztőkre és a szolgáltatókra. Mindez annak érdekében történik, hogy megelőzze a mesterséges intelligencia által okozott károkat. Az ex ante (megelőző) szabályozás tehát megmondja mit kell tenni ezeknek a szervezeteknek azért, hogy a mesterséges intelligencia kockázatmentes legyen, és nem utólag (ex post) mondja el, hogy ki a felelős, ha baj történt.
– Egy gyorsan változó technológiát hogyan tud követni a „nehézkesen lomha” jogszabályozási rendszer?
– A szabályozók kétféle eszközt használtak a dilemma feloldására. Az egyik éppen a technológia-semlegesség. A konkrét technológiák helyett a rendelet inkább élethelyzeteket modellez és a kockázatok elkerülését írja elő, azaz nem azt mondja el, milyen konkrét technológiai megoldásokat nem szabad alkalmazni. Másrészt a Bizottság (az EU „kormánya”) nagyon sok részletszabály megalkotására, majd ezek gyors módosítására is felhatalmazást kapott. Így képes lehet adott esetben napok, hetek alatt is reagálni bizonyos helyzetekre, ha úgy hozza az élet.
– Az új jogszabály a hazai mesterséges intelligenciát fejlesztő, telepítő, forgalmazó, importáló, illetve alkalmazó vállalkozásokra is vonatkozik. Az AI rendelet megsértésekor a kiszabható bírságok összege elérheti a több millió eurót is, de pontosan mikor lép életbe az első mesterséges intelligencia törvény, és mi az, amit már most meg kell valósítani?
– A Hivatalos Közlönyben történő közzétételtől számított két éven belül lép életbe a rendelet. Azonnal, rövid idő alatt csak a tagállamoknak van kötelezettségük. Ki kell jelölniük a tanúsító szervezeteket (ők adják majd ki a magas kockázatú mesterséges intelligenciák tanúsítványait), és a piacfelügyeleti hatóságot, amely majd nyomon követi a piacon a mesterséges intelligenciák működését. Lesz egy MI hivatal, amelyet jelenleg szerveznek, toborozzák az embereket, és így tovább. A hivatal a jogszabályban több tucatnyi hatáskört kapott a végrehajtási szabályok előkészítésétől, a tagállami hivatalok tevékenységének összehangolásán keresztül, az ajánlások megfogalmazásáig. A végrehajtás nagy részét azonban nem ez a szervezet, hanem a tagállami hivatalok fogják végezni. Hogy Magyarországon ez melyik hatóság lesz, – esetleg egy teljesen újat hoznak létre – azt nem tudjuk egyelőre.
– Mennyire lesz az innovációnak támogatója vagy gátja a mesterséges intelligencia törvény? Lehet, hogy az innováció kikerül az EU-ból, máshol fog megvalósulni és a rendelet alkotói lábon lőtték magukat?
– Ez az aggodalom nagyon sokszor megfogalmazódott a jogalkotás folyamata során. A mesterségesintelligencia-fejlesztés az egyik legdinamikusabban fejlődő ágazat, a jövő gazdaságának motorja, és az EU is tisztában van vele, hogy túlzottan szigorú szabályokkal megbéklyózhatja az európai cégeket, csökkentheti versenyképességüket. éppen ezért rendelet elég sok innovációt ösztönző rendelkezést is tartalmaz. Például az úgynevezett szabályozási homokozók (tesztkörnyezetek) létrehozását, ahol a cégek a szabályozó hatóság felügyelete alatt a valóságos környezetben (élesben) történő tesztelés lehetőségét kapják és a hatóság visszajelzéseit követve kockázatmentesen tudnak fejleszteni. Az EU abban bízik, hogy az Európában létrehozott garantáltan biztonságos mesterséges intelligenciák inkább versenyelőnyt fognak jelenteni az európai cégek számára. Akárcsak a törésteszteken biztonságosnak bizonyult autók.
– Bár vannak a hatályba lépéstől számítottan 6 hónap múlva már élessé váló, törvényileg előírt és megvalósítandó feladatok, de általánosságban véve, mi lesz egy 2 év múlva aktuális törvénnyel, ha addigra jócskán megváltozik a technológia?
– Ahogy már említettem a jogszabály elvileg minden olyan részletszabályt, amely elavulhat vagy mellékletben közöl, vagy végrehajtási rendeletekre, illetve más gyorsan elkészíthető és módosítható dokumentumokra bíz. Természetesen így is van kockázat, de ha kell a Bizottság gyorsan tud reagálni az új helyzetre. Magának a rendeletnek a szövege nem olyan, amely képes lenne elavulni; annál általánosabb megfogalmazású.
– Vannak-e hiányosságai, lefedetlen területei az MI-rendeletnek?
– Sokan sokféle rendelkezést, technológiát és a veszély kezelését hiányolják. Például van egy erős hang, amely hiányolja a közösségi médiafelületek által széles körben alkalmazott mesterséges intelligenciák, (pl.: az ajánlórendszerek, vagy a moderálórendszerek) magas kockázatúvá történő minősítését. Mások erősebben hangsúlyozták volna egyes emberi jogok védelmét, hogy a mesterséges intelligenciák semmiképpen se lehessenek diszkriminatívak. Én úgy látom, hogy a rendelet egy józan kompromisszum. Elég szigorú, és magas követelményeket állít, de nem fojtja meg az innovációt sem.
– Tényleg nem tartoznak a törvény hatálya alá a kevésbé összetett rendszerek, amelyek gépi tanulás nélkül működnek, de mesterséges intelligencia funkcióval rendelkeznek, illetve a katonai célú és nemzetbiztonsági célú rendszerek sem?
– Amelyik rendszerre rámondható, hogy képes következtetni, az technológiailag lehet akármilyen egyszerű, mesterséges intelligenciának lesz minősítve. Nem kell gépi tanuláson alapulónak lennie, lehet szabályalapú is: ha kellően bonyolult, és nem kiszámítható egyértelműen a kimenete, akkor vonatkozni fog rá a rendelet szövege. A katonai és nemzetbiztonsági szférában használt rendszerekre pedig valóban nem terjed ki a rendelet. Előbbi esetén nemcsak felesleges, de veszélyes is lenne a fejlesztők kezét megkötni, különösen a jelenlegi geopolitikai környezetben. Utóbbiakra pedig az EU hatásköre amúgy sem terjed ki. Nemcsak a mesterséges intelligencia aspektusában, hanem semmilyen aspektusban. A nemzetbiztonsági, titkosszolgálati szféra szigorúan tagállami hatáskör és reméljük, az is marad.
– Ön szerint, hogyan hat majd az első mesterséges intelligencia törvény a tudományra és az oktatásra?
– Maga a jogszabály úgy fog hatni, hogy az oktatában bizonyos rendszerek – amelyek például esetleg az egyetemi felvételiben minősítik a jelentkezőket –, hogy biztonságosabbak lesznek. Hiszen ezek magas kockázatúnak minősülnek. A tudományban használt mesterséges intelligenciákat a rendelet nem érinti, csak akkor, ha azokat valahol máshol, kockázatos környezetben is használják.
– Milyen hatással lesz a törvény a szerzői jogokra, a manipulált tartalmakra?
– A jogszabály a szintetikusan előállított tartalmak esetén csak címkézési kötelezettséget ír elő – azaz ezeket a tartalmakat meg kell jelölni. Ugyanakkor a legneuralgikusabb kérdéseket egyelőre nem rendezi, ezek túl friss problémák még. Tehát sem azt, hogy lehet-e a rendszerek tanításához szerzői jogilag védett tartalmakat használni a jogtulajdonos engedélye nélkül, sem azt, hogy a gép által kreált tartalmak „levédhetők-e”, azaz műnek minősülnek-e. Ezt a bírói gyakorlat és az idő fogja majd eldönteni.
– Van már olyan magyar oldal, amelyen a megfelelőséget ellenőrizheti egy kis cég?
– Sajnos ilyen oldal még nincsen. Még a végleges jogszabály-szöveg sem készült el. (Az első mesterséges intelligencia törvény várható hatályba lépése 2024. 3. negyedéve. Az utolsó magyar verzió itt található, az angol nyelvű pedig ide kattintva olvasható – A szerk.)
– Lesz bármilyen hatással az első mesterséges intelligencia törvény a világ más részeire?
Ezt nehéz megmondani. A világon sok helyen kezdtek el szabályozásban gondolkodni, viszont az USA-ban és Kínában inkább egyes részterületeken és részproblémákat igyekeznek szabályozni. Kínában például a szintetikus tartalmakat, az USA-ban bizonyos etikai kérdéseket próbálnak szabályozni. Utóbbit elnöki rendelet formájában.
– Lát-e jogi, társadalmi, gazdasági vagy etikai szempontból forró pontokat, buktatókat?
– Szerintem a legnehezebb az lesz, hogy amikor egy rendszert fejlesztenek előre meg kell jósolni annak az emberi jogokra gyakorolt hatásait. Kíváncsi vagyok ez hogyan fog működni. A nagy filozófiai és etikai vitákat is időlegesen fogja lezárni a jogszabály, de a mesterséges intelligencia egy annyira új és annyira felforgató technológia, hogy még nagyon hosszú ideig fogunk róla és a hatásairól vitatkozni.
No Comment