Láthatja-e a mesterséges intelligencia hogy kiből lesz bűnöző?

Közel húsz évvel ezelőtt, 2002-ben hatalmas kasszasiker volt a Steven Spielberg rendezésében, Tom Cruise főszereplésével bemutatott Különvélemény című film. A filmben a rendőrök munkáját mesterséges intelligencia segítette, amely képes előrejelezni a gyilkosságokat. Ami 19 éve hátborzongató sci-fi volt, mára sok területen valósággá vált.

A Különvélemény cselekménye az egyre közeledő jövőben, 2054-ben, Washingtonban játszódik, ahol a rendőrség munkáját három különleges képességű „prekog” segíti azzal, hogy előre jelzik, hol és mikor következik be emberölés, amit így a rend őrei meg tudnak akadályozni. A program rendkívül sikeres, hat éve egyetlen gyilkosság sincs, már országos bevezetését tervezik amikor kiderül: a prekogok sokszor nem egységesen jelzik a jövőt, de a különvéleményt a cég vezetője elhallgatja, így felmerül, hogy esetleg ártatlan emberek is rács mögé kerülhettek.

A büntető igazságszolgáltatással szemben mindig fokozott a társadalmi elvárás: az legyen gyors, hatékony, a valódi bűnösök kapják meg méltó, a további bűnelkövetéstől elrettentő büntetésüket, az ártatlanul megvádoltak viszont ne kerüljenek rács mögé. A társadalom biztonságérzetét leginkább a bűnmegelőzés hatékonysága biztosítja, így nem véletlen, hogy az a mesterséges intelligencia (MI) egyre gyorsuló fejlődésének köszönhetően már most jelen vannak olyan programok, amik ebben segítik a hatóságok, bíróságok munkáját.

Az MI felhasználása a büntetőeljárásban az európai kontinensen elsősorban az Egyesült Királyságban van jelen. A durhami rendőrség a HART algoritmust használja, amely a megfelelő kényszerintézkedés kiválasztásában segít, a gyanúsított személyében rejlő kockázatot elemezve. A kenti rendőrség 2013 és 2018 között a PredPol programot használta, amely a korábbi nyomozati anyagokból bűnügyi mintákat tanul és azokból bűncselekmények hotspotjait készíti el. Ez a rendszer öt évre visszamenőleg minden bűnügyi adattal rendelkezik, és naponta frissítik. Miután összegyűjtötte az adatokat, a PredPol 180 hotspotból álló napi listát készít, mindegyikben 150-szer 150 méteres területre megjósolva bűncselekmény elkövetésének magas kockázatát. A dél-walesi rendőrség arcfelismerő technológiával azonosítja a keresett bűnözőket. És folytathatnánk a sort.

Az USA-ban jelenleg több mint hatvan hasonló automatizált rendszer van, amelyek közül a legismertebb a COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) szoftver, amit az USA-ban négy államban (New York, Wisconsin, Kalifornia, Florida) használnak. Ezt a Northpoint (jelenlegi nevén: Equivant) magántulajdonú cég fejlesztette ki és működteti, (itt található egy régebbi leírás a szoftverről) az állami szervek (rendőrség, ügyészség, bíróság) előfizetési díjért használják. A program a bűncselekményekkel kapcsolatos nyilvános adatokkal dolgozik, amelyeket a konkrét vádlott 137 kérdésből álló kérdőívre adott válaszaival együtt feldolgozva ad arra vonatkozó becslést, hogy milyen valószínűséggel várható a bűnismétlés veszélye. Ezt a programot használják a nyomozati szakaszban a kényszerintézkedésről való döntésnél (előzetes letartóztatás vagy óvadék ellenében szabadlábon védekezhet a vádlott), a büntetés mértékének magállapításánál és a feltételes szabadságra bocsátásnál való döntésnél egyaránt. A COMPAS becslésének eredménye az eljáró hatóságra, bíróságra nem kötelező, de a tapasztalatok szerint, amikor igénybe veszik, ott szinte mindig azon alapuló, annak megfelelő döntést születik.

A program lelkes fogadtatását követően egyre több kritika jelent meg a COMPAS-szal szemben. Ezek közül a leggyakoribb a „fekete doboznak” elnevezett probléma: a fejlesztő cég üzleti titokként kezeli a software pontos leírását, így a büntetőeljárás szereplői lényegében nem tudják ellenőrizni annak működését. A program éppen a szubjektivitás, az emberi tévedhetőség kizárása érdekében jött létre, most mégis az ezeket felváltó, automatizált döntés került a viták kereszttüzébe. Eddig legrészletesebben a wisconsini legfelsőbb bíróság foglalkozott ezekkel a kérdésekkel, a State v. Loomis ügyben 2016-ban meghozott ítéletében (a szövetségi legfelsőbb bíróságnak még nincs ilyen határozata). Az ügy tényállása nem volt rendkívüli: Eric Loomis-t öt bűncselekménnyel vádolták meg egy autós üldözéssel kapcsolatban, amikből kettőben elismerte bűnösségét és vádalkut kötött. Az elsőfokú bíróság a büntetés mértékének megállapításához igénybe vette a COMPAS elemzését, amely azt mutatta ki, hogy a vádlott esetében a bűnismétlés veszélye nagyon magas, a társadalomra nagy kockázatot jelent. A bíróság ezért a két bűncselekmény tekintetében a maximális, hatéves szabadságvesztés büntetést szabta ki.

Loomis a wisconsini legfelsőbb bírósághoz fellebbezett a döntés ellen, többek között arra hivatkozva, hogy sérült a tisztességes eljáráshoz való joga, mivel nem ismerhette meg a software működését és így nem ellenőrizhette az eredmény pontosságát. Ez utóbbi – véleménye szerint – azért is aggályos, mert a COMPAS csoportadatokkal dolgozik, így a büntetés kiszabása nem egyediesített. A legfelsőbb bíróság nem találta alaposnak a fellebbezést, de kimondta, hogy a COMPAS által végzett elemzés a büntetés mértékének kiszabásánál csak egy a lehetséges szempontok közül, és az nem válhat kizárólagossá. A software működésének megismerhetőségével kapcsolatos érveléseket ugyanakkor nem válaszolta meg. Az USA-ban azóta egyre nő a nyomás a bíróságokon a „fekete doboz” feltárása iránt.

Az MI-nek a büntetőeljárásban való felhasználásával kapcsolatos első tapasztalatok alapján úgy tűnik, hogy a Különvélemény című filmben felmerült kérdések már nem a sci-fi kategóriájába tartoznak, hanem a jelenkor szabályozási problémái lettek. A Loomis ügy hatalmas port vert, és mindenki ezt emlegeti a predikció és a mesterséges intelligencia jogban történő használatának legfőbb kudarcaként. De nemcsak a COMPAS okoz problémákat. A fentebb emlegetett PredPol rendszer használatát 2018-ban valamiért leállították a kenti rendőrségen. A durhami arcfelismerési projektet a jogvédők panaszára a Fellebviteli Bíróság ítélte jogellenesnek.  Egyre sürgetőbb tehát megválaszolni egy sor fontos kérdést. Például azt, hogy pl. miről vagyunk hajlandóak lemondani a közbiztonság és saját biztonságérzetünk növelése érdekében? Miben bízunk meg inkább: egy tökéletlen emberi döntésben, vagy egy objektívnek ható algoritmus végeredményében? A legfontosabb, egyben legfélelmetesebb kérdés pedig így szól: ki írja a jövőben a büntető ítéletekben a különvéleményt, a gép, vagy az ember?

A cikk a Digitális jogalkalmazás rovat keretében jelent meg. Az eddigi írásokat itt találod.

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.