A mesterséges intelligencia (AI) robbanásszerű fejlődésével népszerű téma lett az AI általi károkozás kérdése. Ki felel az önvezető autó okozta károkért? A gyártó, a tulajdonos, az üzembentartó, esetleg a károsult? Ugyanazok a szabályok vonatkozhatnak egy autóra, mint egy önjáró fűnyíróra? A cikkben ezekre a kérdésekre keressük a választ.

EU tagállamok AI rendszerekhez viszonyuló felelősségi szabályai
Mivel a mai napig a tagállamokban jellemzően nincs AI specifikus felelősségi szabály, a kártérítési felelősség elsődlegesen az általános felelősségi formák alapján kerülne megállapításra. Felmerül a kérdés: hogyan lennének elbírálva például a fenti helyzetek a különböző tagállamokban?
A cikkben a polgári jogi felelősségét fogjuk vizsgálni. Ehhez először is áttekintjük, milyen felelősségi alakzatok léteznek, és ezek mikor alkalmazandók a különböző jogrendszerekben – ez alapot ad annak a megértéséhez, hogy egyes hipotetikus jogesetek hogy lennének elbírálva.
Vétkességi/felróhatóság alapú felelősség
Ez tekinthető a felelősségi alakzatok alapvető formájának, mind jogtörténetileg, mind főszabály szerinti alkalmazást tekintve. A magyar szabályozás alapját is ez képezi:
“Aki másnak jogellenesen kárt okoz, köteles azt megtéríteni. Mentesül a felelősség alól a károkozó, ha bizonyítja, hogy magatartása nem volt felróható.” (Ptk 6:519. §)
A felelősség megállapításához tehát három feltétel szükséges: a kár megléte, a jogellenesség, valamint a cselekmény és a kár közötti okozati összefüggés. Csupán szövegezési érdekesség, hogy a magyar szabályozás alapvetően nem felróhatóság alapú, csak a kimentési klauza teszi azzá. A bizonyítási teher a kár elemeit tekintve a károsultat, a felróhatóság hiányát tekintve pedig a cselekmény elkövetőjére esik.
Látható tehát, hogy a vétkességi felelősség, a kár bizonyításának teljes terhét a károsultra helyezi, ami bizonyos helyzetekben egyenlőtlen jogérvényesítési helyzetet teremt. Az egyéb felelősségi alakzatok kialakulását a jogtörténelem során jellemzően ezen egyensúly helyreállítása motiválta.
Veszélyes üzemi felelősség
A felróhatóság alapú vétkességból kialakuló első modern felelősségi forma a veszélyes üzemi felelősség, amely először a 19. század Németországában jelent meg a “vasúttörvény” formájában. E felelősség mögötti megfontolás az, hogy aki nagy kockázatú tevékenységet végez, annak akkor is vállalnia kell a felelősséget, ha a kár nem az ő hibájából történt. Ez tehát egy objektív felelősségi forma, hasonlóan a szerződésszegéssel okozott károkért.
A veszélyes üzem megállapítása függhet a lehetséges kár mértékétől vagy annak gyakoriságától is.
Felelősség más személy által okozott kárért
A harmadik személyekkel szembeni felelősség leggyakoribb esete, amikor a munkavállaló kárt okoz – ilyenkor a munkáltató felróhatósága hiányában is köteles megtéríteni a kárt. Annak eldöntésére, hogy ez objektív vagy szubjektív felelősség, két megközelítés létezik. Egyrészt a munkáltató személye szempontjából objektív, mivel nemcsak a felróhatóság alapján kell megtérítenie a kárt. Ugyanakkor szubjektív abban az értelemben, hogy a munkavállaló felróhatóságának megállapítása szükséges a munkáltató felelősségének megítéléséhez.
Mi a jelentősége ezen felelősségi formának az AI tekintetében? Nem lenne igazságos a károsulttal szemben, ha a munkáltatónak a munkavállaló valamely károkozásáért felelnie kell, de mentesülne ugyanezen cselekményért, ha az AI rendszer eredményeként történt.
Termékfelelősség
A termékfelelősség a fentebb tárgyalt felelősségi formáktól jelentősen eltér – ebben az esetben nem a károkozó felel, akinek az érdekkörében merült fel a károkozás, hanem a termék gyártója. A termékfelelősség is egy objektív felelősségi forma – a gyártó a termék hibájáért akkor is felel, ha az neki nem felróható. Mivel az EU AI felelősség reformjának egyik pillérét a termékfelelősség felülvizsgálata, kiterjesztése képezi, ezt később még részletezem.
Jogesetek
Ahogy minden egyéb új technológia megjelenésénél, úgy az AI esetében is a szabályozás előtt két lehetséges út áll. Az egyik esetben a szabályozás alulról építkezés: az AI-t illető kérdések társadalmi és szakmai értékítélete párhuzamosan tisztul az első jogesetekben született döntések alapján, melyeket a bíróságok a meglévő jogintézmények alapján, esetleg analógiát alkalmazva hoznak meg. Ez természetesen a kötelezettek számára nehézséget jelenthet, hiszen nagy az előre tisztázatlan kérdésekből fakadó bizonytalanság. A másik út, hogy a jogalkotó a megszilárdult konszenzusos értékítélet hiányában, valós jogesetekre nem támaszkodva alkot szabályozást – ennek hátránya értelemszerűen, hogy a jogalkotó nem tudhatja előre, mik azok a kérdések, amelyek szabályozásra szorulnak. Ez természetesen sehol sem történik kizárólag precedensjog vagy előre meghatározott szabályok alapján, de míg az Egyesült Államok inkább az előbbi módszert alkalmazza, Európa az utóbbit választotta. Ennek eredményeként készült el egy mesterséges intelligenciával kapcsolatos szabályozáscsomag, amely tartalmazza az AI Act-et, az első jogi keretrendszert az AI fejlesztésének szabályozására, valamint két irányelvet, amelyek a felelősség kérdését rendezik. A szabályozás elkészítése komoly előkészítő munkát igényelt, amelynek eredményeként készült el egy az Európai Bizottság által megrendelt tanulmány. A tanulmány hipotetikus jogeseteken keresztül hasonlítja össze az EU tagállamainak jogrendszereit.
Ezen összehasonlító tanulmányon keresztül áttekinthető, melyek az AI felelősségi kérdésének kritikus pontjai, és ezek megfelelő rendezéséhez milyen változtatások, vagy akár új jogintézmények szükségesek.
Önvezető autók
Ha mesterséges intelligenciáról és felelősség van szó, valószínűleg sokunknak egyből az önvezető autók jutnak eszébe. Nézzük tehát azt az esetet, amikor egy önvezető jármű a KRESZ szabályait megszegve kárt okoz egy gyalogosnak. Ebben az esetben sokak számára természetes, hogy az autó vezetője (vagy az, akinek érdekében az autót vezették) felelősséggel tartozik a gyalogos számára. Ez Magyarországon valóban így történne: a hazai szabályozás szerint ugyanis a motoros járművek üzemeltetése a veszélyes üzemi felelősség körébe tartozik, amely objektív felelősséget von maga után. Így tehát az önvezető autó utasa (operátora) még felróhatóság hiányában is köteles megtéríteni a gyalogos kárát. Azokban a tagállamokban, ahol nem ismerik a veszélyes üzemi felelősséget, vagy nem alkalmazzák a motoros járművekre, a gyalogosnak a felróhatóság alapú felelősségre kell támaszkodnia. Ez pedig jelentősen megnehezítheti, sőt, akár lehetetlenné is teheti kárigényének érvényesítését. Ebben az esetben ugyanis az operátor felróhatóság hiányában nem vonható felelősségre.
A tagállamok jogrendszerében abban is jelentős különbségek vannak, mik esnek a veszélyes üzemi felelősség körébe. Németországban például ez csak a 20 km/h végsebességet meghaladni képes járművekre vonatkozik, így egy lassabb önvezető kombájn például ezen kívül eshetne annak ellenére, hogy teljesítményéből és méretéből adódóan jelentős károkat okozhat. Érdekességképpen, bár az AI kérdését nem közvetlenül érinti, érdemes megemlíteni egy hasonló jelentős különbséget is: sok tagállamban, ahol a motoros járművekre objektív felelősség vonatkozik, a kárveszélyt nem a veszélyes tevékenységet végző vezető, hanem a jármű tulajdonosa vagy üzembentartója viseli.
Az önvezetés különböző fokozatú lehet, a Society of Automotive Engineers (SAE) 6 szintet jelölt meg. Az első szint (L1) vezetéstámogató rendszereket tartalmaz, az L2 már részleges önvezetést végez. Kezel(het)i a kormányt, gázt ad, fékez, Azonban a vezetőnek folyamatosan figyelnie kell a környezetet, és bármely pillanatban képesnek kell lennie beavatkoznia. Az érdemi különbség az L2 és L3 között erre a követelményre vonatkozik. L3 esetén ugyanis nem szükséges a monitorozás, a rendszer előre jelzi, ha olyan helyzetbe ütközik, amit nem tud megoldani.
Némiképp ezt kihasználva hárítják a felelősséget az autógyártók a jármű operátorára. Habár például a Tesla AutoPilot-ja már nevével is azt sugallja, az autó elvezeti magát, mégis hivatalosan csak L2-esként minősíti magát, hisz így kár esetén a felhasználó felróhatósága lenne a mérvadó.
A legfontosabb probléma talán mégis az, hogy azon jogrendszerekben, melyek az objektív felelősséget nem alkalmazzák a motoros járművekre, az ilyen károsult kirívó hátrányba kerül. Nehezen indokolható, hogy egy szabálytalanul közlekedő önvezető autó által okozott gázolás elszenvedője felróhatóság hiányában kárát maga kéne viselje, holott ugyanolyan közlekedési szabály megszegésével az autó tulajdonosa/vezetője felelne káráért.
Autonóm fűnyírók
Az említett tanulmányban egyértelműen nem objektív felelősség körébe tartozó példát is hoz – ebben a jogesetben az önjáró fűnyíró rendszere elmulasztja egy kő detektálását, amely így egy arra haladó személyt eltalál. A fűnyírással okozott kár minden tagállamban (Franciaországot kivéve) csak akkor érvényesíthető, ha a cselekmény felróható. A kérdés megítélését nehezíti, hogy egy ember által működtetett fűnyíró esetében nem dönthető el egyszerűen a felróhatóság megléte (szemben egy szabálytalan autóval). A károsult itt is nehezebben érvényesítheti igényét, mivel a károkozó önjáró fűnyíróval könnyen kimentheti magát, míg más esetben nehezebb bizonyítania, miért nem ő a felelős.
Az AI és a felelősség revíziója az EU-ban
Az előzőekből két probléma tűnik fel:
- a tagállamok között hatalmas különbségek vannak a tekintetében, ki vonható felelősségre AI általi károkozásért
- Az AI általi károkozás általában a károkozót favorizálja. A rendszerek magasfokú komplexitása miatt az okozat bizonyítása rendkívül bonyolult, ami megnehezíti a károsult igényének érvényesítését.
Ahogy korábban említettem, az EU az átfogó szabályzást alkotott, ennek kapcsán lépett hatályba nyáron az AI Act, és ide sorolhatók az AILD (AI Liability Directive, a mesterséges intelligenciával kapcsolatos felelősségről szóló irányelv) és Product Liability Directive (PLD, termékfelelősségi irányelv) direktívák is.
Az AI Act az AI rendszerek fejlesztését szabályozza, a kockázatok csökkentése érdekében biztonsági intézkedéseket, garanciákat vezet be. Emelett a téma szempontjából olyan releváns terminológiákat is definiál, mi számít magas biztonsági kockázatú AI rendszernek, melyet a dírektívák is alkalmaznak. A két direktíva ezzel szemben az AI és a felelősség kapcsolatát kívánja reformálni.
A termékfelelősség fogalmának kiterjesztése
A termékfelelősséget a jogesetek szemléltetése során nem mutattam be – azért, mert a jelenlegi szabályozás szerint nem volna alkalmazható az AI általi károkozásra.
A magyar jogrendszerben termékkárért a hibás termék gyártója felelősséggel tartozik – ahol termék kifejezetten ingó dolog. Az, hogy ebbe például a szoftverek beletartoznak-e, régi vita tárgyát képezte, amelynek végére ezen irányelvvel tett pontot az EU joga: az irányelv kifejezetten bevonja a szoftvereket a termékfelelősség hatálya alá. Ez tehát azt jelenti, hogy az AI-rendszerek általi károkozás megtérítése már nem csupán vétkességi felelősség alapján követelhető. A termékfelelősség, a veszélyes üzemi felelősséghez hasonlóan szintén azzal a motivációval jött létre, hogy az eltolódott erőegyensúlyokat a károsult érdekeit képviselve egyenlítse ki. Az AI általi károkozás általában a károkozót támogatja, és megnehezíti a károsult igényének érvényesítését.
A PLD, szintén az AI által támasztott kihívások kezelése érdekében a hiba fogalmát is kiterjesztette. A gyártó felelősségéhez korábban a hibának az értékesítéskor fenn kellett állnia. Az AI rendszerek sajátossága azonban, hogy üzembe helyezésüket követően “önfejlesztésre” képesek, használatuk során is tanulnak. Például, ahogy egyre több időt töltünk Spotify-on, azt tapasztalhatjuk, hogy a rendszer “ráérez” a zenei stílusunkra. Zenehallgatásból eredően szerencsére ritkán szenvedünk kárt, de önvezető autók esetében ez az öntanulás nem várt működéshez vezethet. Az új irányelv szerint a rendszer öntanuló képességeiből fakadó hibákra is vonatkozik a termékfelelősség. Vélemény kérdése, hogy ez a termékfelelősség hatályának kiterjesztése, vagy csupán egy pontosító információ. Hiszen e kiterjesztés nélkül is tekinthető hibásnak a termék, a hibás öntanuló algoritmus miatt – mindenesetre a jogalkotó ezzel a kérdést megnyugtatóan tisztázta.
Újítások a vétkességi felelősség körében
Az AILD tárgyköre a szerződésen kívül okozott károkért való felelősség. Míg a PLD kapcsán azt láthattuk, a jogalkotó az objektív felelősségi forma alkalmazásával segíti a károsult jogérvényesítését, az AILD megmarad a felróhatósági forma keretein belül. A károsult kedvezőbb helyzetbe kerül, mivel a bizonyítási teher a károkozóra hárul. Ez alapján vélelmezhető a károkozó általi cselekmény és a kár közti ok-okozati összefüggés, ha a károkozó felróható cselekménye nagy valószínűséggel befolyásolta az AI rendszer kimenetét, ami a hibát okozta.
Az európai irányelvek jellemzője, hogy nem alkalmazhatók közvetlenül, a tagállamoknak ezeket transzformálniuk kell belső jogukba. Ez azt jelenti, hogy habár a PLD 2024 decemberében hatálybalépett, a tagállamok jogrendszerébe való adaptálás határideje 2026. decembere. A hosszabb idő olyan szempontból nem tekinthető hátránynak, hogy a kötelezetteknek is lehetőséget biztosít a felkészülésre. Feltehetően már ezalatt az idő alatt is növekszik a jogesetek száma, így érdekes lesz látni, vajon milyen ítélkezési gyakorlat alakul ki.
Az EU átfogó szabályozási csomagja világszinten precedensértékű, jogi szempontból kiemelkedő jelentőségű lépésnek számít. Valódi hatásait és sikerességét azonban csak az elkövetkező évek gyakorlati tapasztalatai fogják teljes mértékben megmutatni.
Ez a cikk az Arsboni 2024. őszi gyakornoki programjának keretében készült.
ForrásjegyzékEuropean Commission: Directorate-General for Justice and Consumers, Karner, E., Koch, B. and Geistfeld, M., Comparative law study on civil liability for artificial intelligence, Publications Office of the European Union, 2021, [https://data.europa.eu/doi/10.2838/77360]
Mádl Ferenc. (1959) Az objektív felelősség történetéhez. AZ ÁLLAM- ÉS JOGTUDOMÁNYI INTÉZET ÉRTESÍTŐJE, 2 (1-2). pp. 101-146.
Eszteri Dániel. A mesterséges intelligencia fejlesztésének és üzemeltetésének egyes felelősségi kérdése [https://real.mtak.hu/97079/1/eszteri.mi.felelosseg.final.pdf]
Erős Orsolya Júlia. A mesterséges intelligencia (MI) a kártérítési felelősségi rendszerben (MJ, 2022/7-8., 393-399. o.) [https://szakcikkadatbazis.hu/doc/2751303]
Arsboni. A kocsim megölt valakit, de kié a felelősség? (2017. május 11.) [https://arsboni.hu/kocsim-megolt-valakit-de-kie-felelosseg/]
Dr. Menyhárd Attila. Jog, etika, jövőkép: felkészültünk az A.I. szabályozására?
[https://www.youtube.com/watch?v=GfOs87zQmyw]
EU Artificial Intelligence Act. High-level summary of the AI Act (2024. február 27) [https://artificialintelligenceact.eu/high-level-summary/]
Nanos, Andreas, Criminal Liability of Artificial Intelligence (November 4, 2023). Charles University in Prague Faculty of Law Research Paper No. 2023/III/3, [http://dx.doi.org/10.2139/ssrn.4623126]
Rácz Lilla. A polgári jogi felelősségi rendszer(ek) mesterséges intelligenciára való alkalmazhatóságának egyes kérdéseiről (az Európai Parlament 2020. október 20-i állásfoglalása nyomán) (2021. június 2) [https://jog.tk.hu/blog/2021/06/a-polgari-jogi-felelossegi-rendszerek-mi-2]
Fézer Tamás. A kártérítési jog magyarázata, Wolters Kluwer Kft. 2010.
Andrew Swarbrick. Artificial intelligence and liability: Key takeaways from recent EU legislative initiatives (Norton Rose Fulbright) (2024. július) [https://www.nortonrosefulbright.com/en/knowledge/publications/7052eff6/artificial-intelligence-and-liability]
European Parliament Briefing. Artificial intelligence liability directive. [https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/739342/EPRS_BRI(2023)739342_EN.pdf]
David Fernández-Llorca, Vicky Charisi, Ronan Hamon,
Ignacio Sánchez, Emilia Gómez. Liability regimes in the age of AI: a use-case driven analysis of the burden of proof. Joint Research Centre, European Commission collaboration with DG JUST [https://ai-watch.ec.europa.eu/document/download/d798e9b8-7f6a-4a5d-9ad9-4cbebf8a880b_en?filename=AILiability-Slides.pdf]
Kúria. Milyen módon alkalmazható Ptk. a 6:142. § szerinti objektív kontraktuális kártérítési felelősség gondossági kötelmek esetén? [https://kuria-birosag.hu/hu/content/milyen-modon-alkalmazhato-ptk-6142-ss-szerinti-objektiv-kontraktualis-karteritesi-felelosseg]
***
Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.









