Új európai rendelettervezet a mesterséges intelligenciáról – A jog területén működő MI-k legtöbbje magas kockázatúnak minősül

Hosszú előkészítés után jelent meg 2021. április utolsó napjaiban a Bizottság rendelettervezete a mesterséges intelligencia szabályozásáról. A dokumentum nagyon sok kételyt eloszlatott azzal kapcsolatban, hogy hogyan fog az EU viszonyulni az MI-hez. Kicsit szigorúbban, mint ahogy azt a legliberálisabb MI-pártiak szerették volna, de sokkal megengedőbben, mint amitől sokan tartottak. Ebben a bejegyzésben főként az igazságszolgáltatás területén „tevékenykedő” MI-kre koncentrálok.

Az MI szabályozása nagyjából a 2010-es évek óta van az EU különböző intézményeinek napirendjén. Eleinte egyértelműen abban az összefüggésben, hogy az EU a két legnagyobb riválisához (USA, Kína) képest elmaradásban van az „adatipar” (data economy), és a „nagy adat” (big data) alkalmazások fejlesztését illetően, és ezeket minden eszközzel, (képzés, kutatás, közvetlen támogatás stb.) ösztönözni kell. Több anyag foglalkozott azzal a sajnálatos fejleménnyel is, hogy Európa nem fejlesztett saját nagy platformot, az európai polgárok szinte kizárólag amerikai közösségi média, online kereskedelmi, video-megosztó, stb. platformokat használnak.

Aztán 2017 táján felerősödtek azok a hangok, amelyek az MI etikai kockázatait kezdték hangoztatni. Létrejött a Mesterséges Intelligenciával foglalkozó Magas Szintű Szakértői Csoport (High Level Expert Group on Artificial Intelligence – AI HLEG) amelynek első dolga egy etikai kockázatokat taglaló dokumentum kibocsátása volt. Az európai MI fejlesztéseket felpörgetni vágyók – köztük én magam is – elkezdtem komolyan aggódni amiatt, hogy Európa „túlaggódja” az MI-t, és úgy jár majd, mint a platformok kapcsán: lemarad, leszakad.

A frissen megjelent rendelettervezet erre rácáfol. Előremutató, hogy az MI-ket négy kockázati osztályba sorolja, és a legkevésbé kockázatos osztály esetén semmilyen kötelező szabályozást nem alkalmaz. (Ilyen kis kockázatú rendszerek pl. a platformok ajánló algoritmusai.) De még a harmadik osztály, (pl. chatbotok, deepfake videók) esetén is csak tájékoztatási kötelezettséget ír elő. Az első osztályba (tiltott MI-k) pedig nagyon kevés MI-t sorol be. (Pl. a társadalmi pontozást megvalósító rendszereket, vagy a köztéri arcfelismerést, de ez utóbbi alól is egy sor kivételt enged, pl. bűnüldözési célok miatt.)

A második kategória (magas kockázatú, de megengedett MI-k) foglalja el a szabályozás nagyobb részét. Ebbe a kategóriába három nagyobb termékcsoport tartozik. Egyrészt azok a termékek, amelyekre egyébként is vonatkoznak bizonyos EU-s biztonsági szabályok, (mint pl. a játékok, vagy magasnyomású rendszerek). Másodszor olyan termékek, amelyeket egyébként is alá kell vetni ún. harmadik fél általi értékelésnek. (Pl. vasúti rendszerek, járművek). Amennyiben ezekben a termékekben az MI a biztonsági rendszer része (safety component), a szabályozás vonatkozni fog rá.

A blogbejegyzésem voltaképpeni témáját jelentő igazságügyi rendszerek a második főkategória (magas kockázatú rendszerek) harmadik alkategóriájába tartoznak. Ez a harmadik kategória a tervezet II. mellékletében található lista, amely nyolc területen „tevékenykedő” MI-t tekint magas kockázatúnak. Ezek közül némelyik konkrét ágazathoz köthető, (pl. az oktatás, vagy az ún. kritikus infrastruktúra területén található rendszerek), más kategóriák pedig ágazatokon átnyúlók, mint pl. a biometrikus azonosítást végző, vagy a vészhelyzet – pl. tűzeset, vagy tömeges baleset – esetén a priorizálást végző alkalmazások. Utóbbiak már természetesen érinthetik a tágabb értelemben vett jogszolgáltatás területét is, de ezekkel itt nem foglalkozom.

A ténylegesen az igazságügyi területhez szorosabban kötődő MI-k az utolsó három pontban találhatók. Az első a rendvédelem (law enforcement) területe. Ide sorolhatók az egyéni, konkrét személyekre vonatkozó kockázatfelmérést és kockázat-becslést végző, illetve az áldozattá válás valószínűségét előrejelző rendszerek, a poligráfok és más hasonló, a bizonyítékok megbízhatóságát értékelő rendszerek, az elkövetők profilozása alapján a visszaesés valószínűségének kockázatát előrejelző rendszerek, és bármilyen más, természetes személyeket az adatvédelmi szabályok alapján profilokat felállító, ezekbe besoroló rendszerek. Itt találunk egy általános kategóriát is, amely bűncselekmények adatait elemzi annak érdekében, hogy „ismeretlen mintázatokat” és „rejtett összefüggéseket” fedezzen fel bennük.

A következő pontban a migráció-, menekült-, és határellenőrzés-menedzsment rendszerek találhatók, amelyek sok szempontból hasonlítanak a fenti, rendészeti rendszerekhez. (Pl. magánszemélyek kockázat-elemzését és profilozását végzik.)

A számunkra legérdekesebb kategória a melléklet utolsó pontja, amely a jogalkalmazásban és a demokratikus eljárásokban használt MI-ket tartalmazza, és egyetlen rövid mondatból áll: „olyan MI rendszerek amelyek a bírói munkát (hatalomgyakorlást) segítik (assist) a jog és a tények kutatásában és értelmezésében, valamint a jog alkalmazását konkrét tényállásokra.

Ezen utolsó kategória esetén még bizonyosan lesznek komoly értelmezési nehézségek, és szerintem ez a kategória kicsit túl tágra is lett hagyva. Ha az MI definíciójából indulunk ki, („gépi tanuláson, statisztikai elemzésen, vagy szabályalapú tudásreprezentáción alapuló, ember által meghatározott  célokat önállóan követni képes rendszer”), majd ezt az igazságügyi rendszerekre vonatkozó definíciót nézzük, („jogi kutatást végző rendszer”), ebbe egy gépi tanulási elemeket tartalmazó egyszerű jogtár is beletartozhat. Ha ez így van, az ezeket a rendszereket gyártó és forgalmazó cégek komoly engedélyeztetési és bürokratikus akadályokkal kell szembenézzenek a közeljövőben. Ezekről a konkrét szabályokról a következő blogbejegyzésben írok majd.

A szerző az NKE ITKI Digitális Jogalkalmazás kutatócsoportjának vezetője

A cikk a Digitális jogalkalmazás rovat keretében jelent meg. Az eddigi írásokat itt találod.

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.