A gépek lázadása – avagy diszkriminatív algoritmusok az igazságszolgáltatásban?

Miként tud egy algoritmus diszkriminatív lenni? A bírói döntéshozatalban mindinkább megjelenő „machine-learning” algoritmusok komoly problémája az egyes társadalmi csoportok, a különböző etnikumok diszkriminációja, valamint a bőrszín alapján történő hátrányos megkülönböztetés. Hogyan küszöbölhető ki a mesterséges intelligencia igazságszolgáltatásba történő bekapcsolódásának következtében esetlegesen fellépő diszkrimináció?

Mesterséges intelligencia, mint a bíró jobb keze

A digitalizáció az élet minden területén számottevő változásokat idézett elő a XX. század második felétől. A joggyakorlatban megjelenő különböző informatikai megoldások (pl. okosszerződések, virtuális ügyvédi irodák) elterjedése világszerte egyre inkább gyorsuló folyamat. Az elmúlt évtizedekben a bírói döntéshozatalban az Amerikai Egyesült Államok mellett Latin-Amerikában (pl. Kolumbia, Brazília, Argentína), illetve Ázsiában (pl. India, Malajzia, Kína) egyaránt alkalmazásra kerül a mesterséges intelligencia (MI). Kétségesnek tűnik, hogy az MI valaha is képes lesz teljesen felváltani a bíró szerepét; egyre gyakrabban használják viszont a mesterséges intelligenciát a döntéshozatalban, amelyek megjósolják az elkövető jövőbeli veszélyességét és meghatározzák a vádlott visszaesési kockázatát. Ezek a prediktív algoritmusok jellemzően az érintettekről rendelkezésükre bocsájtott háttérinformációk alapján statisztikai alapon levont következtetéseket szolgáltatnak az elkövetőkről a bíróságoknak.

Az igazságszolgáltatásban alkalmazott egyes algoritmusok

A jelenleg legismertebb kockázatelemzési rendszer a COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), mely egy algoritmus alapú értékelési és elítéltprofilozási rendszer, amellyel az elkövető jövőbeli magatartásának kockázati értékét lehet meghatározni. Ezen kockázati értékek a bíróságok számára az ítélethozatalban fontos hivatkozási pontként szolgálhatnak, míg, ha kritika nélküli beemelésük az eljárásba nem is tanácsos. Az Amerikai Egyesült Államok számos tagállamában rendszeresen alkalmazzák ezen MI-alapú kockázatelemzési rendszert.

A bírósági joggyakorlatot segítő MI-alapú támogató rendszereket egyaránt széles körben alkalmazzák a tengerentúlon. Ilyen szoftver a LexisNexis, amelynek adatbázisa 83 milliárd jogszabályt és bírói döntést, valamint 40.000 jogi szakcikket és 700 millió cégbejegyzési adatot foglal magában. Ugyancsak érdemes megemlíteni a Prometea támogató szoftvert, amelyet az Amerikai Emberi Jogok Bíróságán alkalmazzák a bírósági dokumentumok elkészítésének megkönnyítéséhez. Ugyancsak ilyen India Legfelső Bíróságának saját rendszere, a SUPACE (Supreme Court Portal for Assistance in Courts Efficiency).

Önálló döntéshozóként alkalmazott MI jelenleg Kínában és Brazíliában fellelhető szűk körben. 2017-ben hozták létre Kínában az első internetbíróságot, ahol a digitális térben keletkezett jogvitákkal összefüggésben (pl. fogyasztóvédelmi panaszok, online szerzői jogi viták) lehet kezdeményezni bírósági eljárást. Ezen bíróságok a következő technológiákat alkalmazzák: blockchain, AI, Big Data és cloud computing. A bíró, mint ember személye helyett egy MI rendezi a jogvitát a rendelkezésre álló adatok alapján és a gépi tanulási módszerek alkalmazásával. Jelenleg ilyen internetbíróság Hangzhou-ban Pekingben és Kantonban működik. Brazíliában a VICTOR rendszer a brazil legfelső bíróságon a befogadhatósági teszt alapján vizsgálja, hogy egy beadvány megfelelő-e arra, hogy a bíróság érdemben tovább foglalkozhasson vele. Ha a befogadhatóságról szóló döntés szerint a beadvány nem megfelelő, akkor a keresetet érdemi vizsgálat nélkül elutasítják.

Antipatikus vagyok egy AI-nak?

Ezen említett algoritmusok alkalmazása az emberi előítéletek számos módon történő megjelenéséhez vezethetnek. Az algoritmikus döntéshozatal, akárcsak az emberi logika szerinti elbírálás, diszkriminatív eredményekhez vezethet még akkor is, ha nincs erre irányuló szándék. Ebből kifolyólag beszélhetünk indirekt és direkt diszkriminációról az algoritmusok vonatkozásában. Direkt diszkriminációhoz vezethet lényegében az, amikor szándékosan olyan prediktív algoritmust fejlesztenek, amelyek meghatározott módon figyelembe veszik azon személyes adatokat, amelyekből az előítéletek döntően fakadhatnak (pl. biológiai nem, életkor, bőrszín, vallás stb.). Az indirekt diszkrimináció fő forrása a training data. Ezen adathalmaz az, amelyből az algoritmus tanul, felismeri a mintákat és alkalmazza a statisztikai szabályokat. A fejlesztők a képzési adatok kiválasztásakor öntudatlanul is figyelembe vehetik a kulturális előítéleteket, különösen akkor, ha az adatokból hiányzik a demográfiai sokszínűség. Probléma lehet az, amikor az adatsor olyan jellemzőket vesz figyelembe nagyobb számban a bűnelkövetés és visszaesés megállapításánál, amelyek bizonyos bőrszínek és etnikumok szerinti csoportok körében a kedvezőtlenebb anyagi és szociális helyzet következtében felülreprezentáltak lesznek. Az MI mindezen jellemzők figyelembevételével a hátrányos helyzetű nagyrasszok és etnikumok képviselőire nézve kedvezőtlenebb bűnügyi kockázatokat fog megállapítani.

Az algoritmusok által történő hátrányos megkülönböztetés mérséklésére új szabályozási rendszer megalkotása szükséges. Ezen MI-alapú algoritmusok sokszor ún. fekete dobozok (black boxes). Gyakran homályos, hogy egy rendszer milyen indokok alapján dönt a betáplált adatok figyelembe vételével a rá bízott ügyben. Az ilyen döntések átláthatatlansága miatt az emberek számára kihívást jelent annak megállapítása, hogy például faji hovatartozásuk alapján diszkriminációnak voltak-e kitéve. Valójában ez a legnagyobb probléma az algoritmusokkal, ugyanis nem lehet tudni, hogy a betáplált adatoktól milyen logikai folyamat vezet el a végeredményhez. Ugyan az adatvédelmi vonatkozású jogi normák az emberek személyes adatainak gyűjtését, tárolását és terjesztését, – mint például az Európai Unió Általános adatvédelmi rendelete (General Data Protection Regulation – GDPR) – részletesen szabályozzák, az MI-alapú algoritmusok esetében nem a hozzáférhető adatok körével van probléma, hanem azzal, hogy az MI ezen adathalmazokat hogyan kezeli, azokból milyen statisztikát készít, és azok alapján milyen előítéleteket alakít ki a maga számára, amelyből a végeredmény megszületik. Mindezekre figyelemmel szükség lenne egy kifejezetten A MI bírói döntéshozatalba történő bevonását lefedő jogi szabályrendszer kimunkálására, akár a szupranacionális szinten is.

Várható javulás?

A nemzetközi szervezetek, a különböző államok, illetve az Európai Unió számos jogszabályt hoztak létre – és jelenleg is előkészítés alatt állnak – a mesterséges intelligencia egyes felhasználási eseteire vonatkozóan: többek között például az arcfelismerés korlátozásával vagy az MI-rendszerek autonómiájának mértékével kapcsolatban. Ugyanakkor mindezek nagyon lassan haladnak, sőt, a már elfogadott szabályozások is erősen vitatottak. Ráadásul a nagyobb részük soft law jogi norma, így kötőerejük nincsen, amely a kikényszeríthetőség hiányát jelenti. Véleményem szerint az MI-alapú algoritmusok alkalmazása a döntéshozatalban támogató eszközként akár alkalmas lehet a diszkrimináció visszaszorítására is. Azonban, mivel a jogalkotás viszonylag lassan alkalmazkodik a trendekhez, a technológia pedig gyorsan fejlődik, az MI nem kellően körültekintő és jelenleg még jogilag nem kellő részletességgel szabályozott használata könnyen a diszkriminatív megkülönböztetés újabb forrásává válhat.

Ez a cikk az Arsboni 2022. őszi gyakornoki programjának keretében készült.

Szakirodalom:

Chronowski Nóra, Kálmán Kinga, Szentgáli-Tóth, Boldizsár (2022): Régi keretek, új kihívások: a mesterséges intelligencia prudens bevonása a bírósági munkába és ennek hatása a tisztességes eljáráshoz való jogra. GLOSSA IURIDICA, 8 (4). pp. 7-38.

Czenczer Orsolya, Bottyán Sándor (2021): Büntetés-végrehajtási algoritmusok: Tallózás a büntető igazságszolgáltatásban alkalmazott technikai nóvumok és fejlett technológiai megoldások tárházából a büntetés-végrehajtás vonatkozásában. MAGYAR RENDÉSZET, 21 (3). pp. 15-28.

Zuiderveen Borgesius, F. (2018): Discrimination, artificial intelligence, and algorithmic decision-making. Strasbourg: Council of Europe, Directorate General of Democracy.

Allen, R., Masters, D.: Artificial Intelligence: the right to protection from discrimination caused by algorithms, machine learning and automated decision-making. ERA Forum 20, 585–598 (2020).

Malek, M.A.: Criminal courts’ artificial intelligence: the way it reinforces bias and discrimination. AI Ethics 2, 233–245 (2022).

Ignacio N. Cofone: AI and Judicial Decision-Making. In Florian Martin-Bariteau & Teresa Scassa, eds., Artificial Intelligence and the Law in Canada (Toronto: LexisNexis Canada, 2021), ch. 13.

A kép forrása: https://feedzai.com/blog/understanding-ai-bias-in-banking/

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.