Ultron kora az igazságszolgáltatásban? Avagy az algoritmusok használata a büntető ügyekben

E cikk a Bird & Bird és az Arsboni által meghirdetett 2019. évi Cikkíró Pályázat keretében született.
Szerző: Fuchs Vivien

Az algoritmusok hasznosíthatósága a jog világában

A 21. században nem múlik el nap anélkül, hogy mesterséges intelligenciával (MI) ne találkoznánk. Elég csak a minden háztartásban előforduló okos telefonokra, televíziókra gondolnunk. A MI már az élet szinte minden területére beszivárgott, így a jogi piacon is megjelentek a különféle mesterséges intelligencia alapú rendszerek. Ezek működése összetett algoritmusokon alapszik, azonban a két fogalom mégsem keverendő. Az algoritmusok egy komplex, előre megadott utasításrendszer alapján képesek működni, ebből eredően önmagukban leginkább rendezési, számítási feladatok elvégzésére alkalmasak, alkalmazási körük is ehhez igazodik, összetettebb problémák vagy feladatok megoldására nem alkalmasak. A mesterséges intelligenciák, viszont szinte bármilyen beléjük táplált feladatot képesek elvégezni, mechanikájuk inkább hasonlít az emberi gondolkodáshoz, mintsem egy puszta matematikai számításhoz. Ilyenek például az önvezető autók és az intelligens személyi asszisztensek. Jogosan vetődik fel így a kérdés: mire használható ez a technika az igazságszolgáltatásban, még inkább a büntető igazságszolgáltatásban?

Az algoritmusok fentiekben említett utasítás alapú, matematikai számító jellegét tudják kiaknázni a nyomozó szervek és a bíróságok az elemző, statisztikákat felállító műveletek elvégzésekor. Ezekhez a műveletekhez ugyanis a már megadott adatokon kell végigfuttatni a rendszernek egy meghatározott számítási technikát. Az ezen a területen való hasznosíthatóságra mutat rá többek között a Stanford University kutatója, Sharad Goel, aki kutatócsoportjával a rendőri visszaéléseket vizsgálta egy algoritmus kidolgozásával. A kérdés azonban annyira nagy jelentőségű, hogy a tudomány művelőin túlmenően, már kormányzati szerv is foglalkozott vele. Az Egyesült Államok Számvevőszéke (U.S. Government Accountability Office – GAO) álláspontja szerint a különféle kockázatelemző, arcfelismerő algoritmusok remekül működhetnek a közjó szolgálatában. A GAO erről kiadott jelentésében az algoritmusok alkalmazása a humán döntések megkönnyítését, a bűnüldöző szervek hatékonyabb stratégiai elosztását, sőt hosszútávon a bűnelkövetések számának csökkenését eredményezheti. Emellett felhívja a figyelmet arra, hogy ebben az esetben már vékony a jég a közérdek és a személyiségi jogok védelme között, vagyis a személyiségi jogok jelentősen sérülhetnek a különböző szenzitív adatok kezelése és gyűjtése által, ugyanis számításaik során ezekből az adatokból szintén merítenek az algoritmusok.

Alkalmazási dilemmák

Segítünk a pályakezdésben, munkahelyválasztásban

Gyere el a legközelebbi dzsemborinkra, és egy habos sör/fröccs és pizza mellett berúgjuk a karrieredet! A HR-es könzervszlogenek helyett mi eszközöket adunk a kezedbe, hogy a hozzád legjobban passzoló állást találd meg pályakezdőként.

Mint mindennek, az algoritmusok használatának is megvannak a maga előnyei és hátrányai. A hatóságok keresésre, illetve azonosításra fordított eddigi munkája lényegesen lerövidült, köszönhetően az olyan algoritmusoknak, amelyek például lehetővé teszik az arcfelismerést vagy akár az elkövetők azonosítását. Összességében tehát az igazságszolgáltatás gépezete hatékonyabbá és gyorsabbá, némely esetekben olcsóbbá válhat alkalmazásuk által, ennek ellenére mégis körültekintő használatot követelnek. A leginkább vitatott felhasználási terület az algoritmusok kockázatelemző tevékenysége a büntetőeljárásban. Az Egyesült Államokban már bevett gyakorlata van ezeknek az elemző rendszereknek, hovatovább bírói döntés is alapulhat ezeken. A rendszer a bűncselekmény elkövetését megelőző előélet (volt-e büntetve, ha igen, miért, mikor), az elkövetett bűncselekmény és több esetben származás alapján osztályozza az egyéneket. Az elkövetők a hatóságnál már meglévő adataik kiegészítéseként kitöltenek egy kérdőívet, amelyben az
élethelyzetükről, környezetükről (családi állapot, baráti viszonyok) és bizonyos szokásaikról (pl. drogfogyasztás, költözések száma) nyilatkoznak. Tekinthetjük ezeket szubjektív tényezőknek, emellett pedig bizonyos objektív elemek, mint például a bűnelkövetési arányok megoszlása különböző csoportok között, egyaránt szerepet kapnak a kockázat kiszámításában. Tehát, a kockázati tényezők egyik pillérét a kérdőívben megadott válaszok adják, míg a másikat a hatóság rendelkezésére álló adatok. A diszkrimináló jelleg már több esetben megmutatkozott. Így például azt a személyt, aki korábban fiatalkorúként négy
alkalommal követett el vétséget, magasabb kockázatúnak ítélte az algoritmus, csupán afroamerikai származása miatt, mint azt a fehér személyt, aki két fegyveres rablást és ennek kísérletét követte el. Az okok a bűnelkövetési rátában egyaránt kereshetőek, hiszen ezek a mutatók szintén az értékelési szempontok közé tartoznak. A józan ész, mégis inkább arra enged következtetni, hogy az az egyén, aki több erőszakos cselekményt követett el, nagyobb veszélyt jelent a társadalomra, mint az, aki vétségek miatt került bíróság elé.

Ennél messzebb menő volt az az eset, amikor Wisconsin állam egy bírája a büntetés
kiszabásánál részben egy algoritmus értékelésére támaszkodott. A Loomis-ügyként elhíresült esetben a vádlott részben beismerő vallomást tett és lemondott tárgyaláshoz való jogáról, így esküdtszék nélküli döntéshozatalra kerülhetett sor. A bíróság a Compas elnevezésű algoritmus számításait is figyelembe véve börtönbüntetésre ítélte a vádlottat.
Az algoritmus számításainak eredményeképp a vádlott potenciálisan újabb bűncselekményt fog elkövetni, vagyis nagy kockázattal járna a társadalomba visszaengedni. Az ügy azért is érdekes, mert maga az algoritmus titkosított, vagyis annak pontos elemző tevékenységét és a szempontokat, amelyek figyelembe vételével az értékel, az algoritmus fejlesztőin és tulajdonosain kívül más nem ismerheti. A vádlott sérelmezte az algoritmus alapú értékelés felhasználását és fellebbezést nyújtott be az ellen, mert véleménye szerint ezzel a tisztességes eljáráshoz való joga sérült. Az elítélt jogsérelmét arra alapozta, hogy nem
ismerhette az algoritmus számításainak alapját, így az ellen védekezni sem tudott. Az eset a Wisconsini Legfelső Bíróság (Wisconsin Supreme Court) elé került. A Legfelső Bíróság az elsőfokú bíróság döntését helybenhagyta, hangsúlyozva indokolásában azt, hogy az algoritmus által adott „rossz” értékelés figyelmen kívül hagyása és a többi bűnösségre utaló tényező, valamint az elkövetett bűncselekmény súlya (jármű önkényes elvétele, hatósági eljárás megzavarása), valamint a vádlott büntetőjogi előélete (szexuális erőszak)
azonos következtetésekre vezet. Ann Walsh Bradley, a Wisconsini Igazságügyi Tanács tagja engedélyezte a büntető igazságszolgáltatásban a titkos algoritmus használatát, kiegészítve azzal, hogy mindig körültekintő mérlegelést igényel az algoritmus alapján kapott eredmény alapul vétele. Kiemelte, hogy ezek az eszközök segíthetik az individualizált döntés meghozatalát, emellett fontos az is, hogy ez is csupán egy lehet a bűnösségre utaló tényezők között, de semmiképpen sem tekinthető predetermináló oknak.

Az algoritmusok körültekintő alkalmazására és az általuk végzett hátrányos megkülönböztetésre hívta fel a figyelmet egy amerikai jogvédő szervezet, az American Civil Liberties Union (ACLU). A szervezet rámutatott egy hasonló elven működő program jelentős hibáira. Az Amazon által forgalmazott arcfelismerő alkalmazás, a Rekognition, nyilvánosan hozzáférhető, a fejlesztők szerint rendkívül precíz és pontos arcfelismerést produkál, sőt közbiztonsági ügyekben is jól használható. Az ACLU által végzett tesztfuttatáson a bűnügyi nyilvántartás fotóit illesztették a programba. Ezután összevetették ezt a Szenátus és a Képviselőház tagjainak fotóival, ahol a program több egyezést talált a megadott bűnügyi fotókkal. Az algoritmus a Kongresszus 28 tagját bűnelkövetőként identifikálta, ezen felül magasabb találati arány mutatkozott a színes bőrű tagok között. Az azonosítottak 40%-a színes bőrű volt, akik a Kongresszus mindössze 20%-át teszik ki. Az ACLU által végzett teszt tehát, tovább erősíti azt a feltételezést, hogy az arcfelismerő alkalmazások hátrányosabban ítélik meg a színes bőrű embereket.

Jövőkép

Mit várhatunk a jövőben ezektől a rendszerektől és miért alkalmaznánk ezeket vagy vennénk figyelembe az eredményeiket, ha ennyi kockázattal járnak? Véleményem szerint sikerrel alkalmazhatóak az igazságszolgáltatásban a különféle algoritmusokon alapuló programok és rendszerek, de csak egy meghatározott felhasználási körben. A bűnüldözés és a nyomozás során ezek az eszközök szinte nélkülözhetetlen szerepet töltenek be, míg a tárgyalóteremben csak körültekintően alkalmazhatók. Előnyösebb ez azért is, mert ha a bírósági tárgyalás/ügyszak előtt, ezeken a rendszereken alapuló döntések születnek, ám ha azok nem teljesen adekvátak a valósággal, azt a bíró mérlegelési jogkörében képes ellensúlyozni, vagy éppen figyelmen kívül hagyhatja, ha nem tartja őket valósághűnek. Ezzel ellentétben, ha a döntést a tárgyalóterem falain belül indokoljuk egy algoritmus eredményével az komoly aggályokat vethet fel az ítélet megalapozottságával kapcsolatban.

A fenti koncepciót továbbgondolva jogosan tehetjük fel a kérdést: Vajon átveheti egy algoritmus a jogászok szerepét? Fontos azonban, hogy a kérdés az algoritmusok összetett rendszeréből álló mesterséges intelligenciák kapcsán merülhet fel. Ugyanis ezek képesek a jóval komplexebb és bonyolultabb feladatok megoldására, vagy legalábbis erre szánják őket. Az elképzelést illetően a támogatók és az ellenzők köre látszik körvonalazódni. Előbbiek főként azzal érvelnek, hogy így a gyakorlat egységessé válhat és igazán igazságos ítéletek születhetnek. Véleményem szerint azonban sosem veheti át egy algoritmus a jogászi gondolkodásmódot, ezen túlmenően pedig az elszámoltathatatlanság problémája is fennáll. További érveket lehet az algoritmusos rendszerek emberhelyettesítő funkciója ellen megfogalmazni. Ilyen például a teljes objektivitás, vagyis az egyéniesítés abszolút hiánya, amely egy-egy ügyben kulcsszerepet játszhat. Nem szabad mellőzni azt sem, hogy az olyan absztrakt fogalmakat, mint a kellő figyelem és körültekintés vagy méltányosság még mi emberek sem tudjuk egy egzakt kategóriaként meghatározni. Ezek esetében mindig az adott körülmények alapján dönthető el, mi illeszkedik a fentiekben felsoroltakba, így ezt betáplálni egy algoritmusba aligha lenne lehetséges.

Summa summarum az algoritmusoknak helye van az igazságszolgáltatásban, de csak
meghatározott keretek között és az ehhez szükséges jogszabályi háttér
megteremtése után. Az algoritmusok használata ugyanis könnyen vezethet a
személyiségi vagy más alkotmányos jogok sérüléséhez.

Források

Artificial
Intelligence: Emerging Opportunities, Challenges, and Implications.
GAO-18-142SP. 2018

https://www.gao.gov/products/GAO-18-142SP (2019.03.16.)

Jacob
Snow: Amazon’s Face Recognition Falsely Matched 28 Members of Congress With
Mugshots.2018

https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28 (2019.03.16.)

Julia
Angwin, Jeff Larson, Surya Mattu and Lauren Kirchner: Machine Bias. Pro
Publica, 2016

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (2019.03.16.)

Mitch Smith:
In Wisconsin, a Backlash Against Using Data to Foretell Defendants’ Futures.
The New York Times, 2016

https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html?module=inline (2019.03.16.)

Adam
Liptak: Sent to Prison by a Software Program’s Secret Algorithms. The New York
Times, 2017

https://www.nytimes.com/2017/05/01/us/politics/sent-to-prison-by-a-software-programs-secret-algorithms.html?_r=1 (2019.03.16.)

Székely
János – Veress Emőd: A mesterséges intelligencia és a jog. Sapientia EMTE 2018 https://www.nyugat.ro/?p=929 (2019.03.16.)

https://wicourts.gov/courts/supreme/justices/bradley.htm (2019.04.07.)

https://aws.amazon.com/rekognition/ (2019.04.07.)

Albert
Lili: Jönnek a „jobot”-ok?. 2018

https://arsboni.hu/jonnek-a-jobot-ok-2/ (2019.04.07.)

State
of Wisconsin v. Eric L. Loomis

https://www.scotusblog.com/wp-content/uploads/2017/02/16-6387-op-bel-wis.pdf
(2019.04.12.)

Ságvári
Bence: Diszkrimináció, átláthatóság és ellenőrizhetőség. Bevezetés az algoritmusetikába.
Replika 2017/3. sz.  61.-79.p.

Darák
Péter: (Mesterséges) bírói intelligencia?

https://kuria-birosag.hu/sites/default/files/sajto/z_dr_darakpeter.pdf  (2019.04.12.)

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Ars Bonit a facebookon.

MEGOSZTÁS