Az algoritmusok használata a büntető igazságszolgáltatásban elkerülhetetlen

Paul Zilly sosem volt egy hardcore bűnöző. Piti drogügyek voltak csak a kartonján (mondjuk abból nem kevés), amikor egy fűnyírót lopott el az egyik szomszédja kertjéből, hogy alkatrészei eladásából tudja finanszírozni drogfüggését.

Wisconsinban nagy a szigor: ilyenért börtön jár. Az ügyész és Zilly védője egy éves börtönbüntetésben állapodtak meg, a bíró azonban nem hagyta jóvá a vádalkut, és 2 éves szabadságvesztést szabott ki. Döntése mögött egy algoritmus állt, ami azt prognosztizálta Zillyvel kapcsolatban, hogy egy ilyen rövid börtönbüntetés esetén sokkal nagyobb eséllyel lesz visszaeső. Az ügyből óriási sajtóbotrány lett az USA-ban.

Zilly ügye mutatott rá, hogy valami nagyon megváltozott az amerikai igazságszolgáltatásban. Az USA-ban ugyanis mostanra szinte minden államban vannak hasonló alkalmazások, az Egyesült Királyságban is ilyen „robotok” szabják ki a legtöbb szabálysértési bírságot. A felháborodás egyre nagyobb a trend ellen: vannak, akik szimplán embertelennek, mások egészen „kafkainak” tartják, hogy számítógépes programok alapján döntenek emberek élete felett. És természetesen a botrány itt nem áll meg: már készülőben vannak a próbaperek, Franciaország pedig törvénybe iktatta nemrég, hogy ilyen alkalmazások előállítása és forgalmazása bűncselekmény.

Az elkövetkezendő hetekben valamikor megpróbálom részletesen bemutatni, hogy hogyan működnek ezek az algoritmusok, de nagyon egyszerűen a következőképpen lehet megérteni: a büntető igazságszolgáltatás borzasztó mennyiségű adatot termel. Nyugat-Európában és az USA-ban minden elkövetőről, annak társadalmi és személyes hátteréről, valamint az adott bűncselekmény körülményeiről pontos statisztikát vezetnek hosszú évtizedek óta. Ezeket az adatokat adatbázisokba rendezik (jobb helyeken J). És ahogy már több korábbi posztomban bemutattam, egy jó adatbázisból fantasztikus dolgokat lehet kinyerni. Például tiszta összefüggéseket (korrelációkat) bizonyos körülmények és a bűncselekmények között.

Tudj meg többet!

Mindenki tudja, hogy mondjuk egy 30 éves, munkanélküli, tanulatlan, drogfüggő, vagyon- és család nélküli többszörösen visszaeső férfi nagyobb eséllyel követ el bűncselekményt a feltételes szabadlábra helyezése során, mint egy büntetlen előéletű, három gyerekes, egyetemet végzett, egészséges középosztálybeli nő. Ez sem igaz minden esetben, de az esélye biztosan nagyobb. Az ilyen algoritmusok abban segítenek, hogy pontos számot tudnak tenni esélyekhez: nem mindegy ugyanis, hogy az elmúlt 50 év adatai alapján valaminek az esélye 52% vagy 97%. Ráadásul ezek az algoritmusok tanulnak is: bár historikus adatok alapján működnek, de az algoritmusba beépülnek az új döntések, és azok eredményességei is, így pontosságuk napról-napra nő. És még valami: a fenti példám nagyon kézenfekvőnek tűnik, azonban azt nem tudja megmondani senki, hogy melyik két adatot lehetne elvenni a felsorolásból, hogy az állítás még mindig igaz legyen. Sőt, azt sem tudja senki, csak legfeljebb sejti, hogy melyik ezek közül milyen súllyal esik latba. Arról nem is beszélve, hogy lehet, hogy én azt gondolom, hogy a felsorolt tények a fontosak, közben meg nem is, hanem egy teljesen más. A gépek ezt mind „megoldják”: a data science és a computer science abban jó, hogy egy ilyen adatbázisból korrelációkat találva modelleket épít, ami mondjuk 80-90% pontossággal megmondja, hogy például milyen tények fennállása esetén szabadna valakit engedni szabadlábon védekezni.

De ez csak a matek, és az emberek idegenkednek, hogy matematikai algoritmusok alapján hozzanak az életükről döntést. A számokból ugyanis hiányzik az „emberi tényező”: többször kimutatták, hogy ezek az algoritmusok valójában rasszisták és férfigyűlölők, hiszen mivel a historikus adatokon alapulnak, amiben a fekete és a férfi bűnelkövetők felülreprezentáltak, ezért ezeket a rossz trendeket erősítik a robotok. De az emberi tényező másképpen is hiányzik az algoritmusokból: azért, mert hasonló társadalmi és személyes státuszú emberek mondjuk visszaesők lettek, miért jelentené, hogy majd én is az leszek? És amúgy is: átláthatatlan egy védő vagy bűnelkövető számára, hogy hogyan működik a robotizált döntéshozatal, ezért védekezni sem lehet normálisan ellenük. Olyan, mint egy „fekete doboz”: bemennek adatok, majd kijön belőle valami, de nem érti senki, hogy mi alapján és miért.

És ez mind igaz is. Még is azt mondom: matematikai algoritmusok használata a büntető igazságszolgáltatásban nemcsak fontos és jó, hanem egész egyszerűen elkerülhetetlen, ha az igazságot fontosnak tartjuk. Fekete doboz ugyanis most is van mindenütt a büntető igazságszolgáltatásban, csak talárban ül egy pulpituson: ki tudja megmondani pontosan, hogy bíró mi alapján és miért döntött, ahogy éppen döntött? Senki, még maga sem. Emberek vagyunk: kutatások százai bizonyítják, hogy a bírókat ugyanúgy befolyásolja a döntéshozatalukban az időjárás, az éhségük vagy a pillanatnyi hangulatuk, mint mondjuk a joggyakorlat. Nem állítom, hogy nem a jog a legfontosabb tényező egy bírói döntésnél, de választottbíróként és ügyvédként is látom, hogy millió más tényező is szerepet játszik. Fekete doboz tehát most is van. De a rasszizmus és férfigyűlölet vádja is lehet ugyanúgy igaz az igazságszolgáltatásra, mint egy algoritmusra: miért gondoljuk, hogy ezektől mentes lenne egy ember? A historikus adatok is emberi döntéseket épülnek fel.

A kulcskérdés az algoritmusok területén szerintem az igazságosság. A számítógépnek nincs rossz napja, nincs a valóságban előítélete (ha van, akkor rosszul programozták), nem éhes, nem ideges, neki nem esik az eső, nem üvöltözött reggel a gyerekeivel, és nem emlékezteti egyik vádlott sem egy régi osztálytársára, akit utált. Az algoritmus igazán igazságos: mindenkinek ugyanazt adja, ugyanúgy. Ahhoz ugyanis, hogy igazságos legyen az igazságszolgáltatás, szerintem pont az „emberi tényezőt” kell belőle kivonni.

De még mielőtt bárki azt gondolná, hogy azt akarnám, hogy holnaptól a PKKB-n robotok üljenek: nem akarom. A gépek ugyanis még nincsenek azon a szinten. Sok a hiba, és még talán nem is elég szofisztikáltak az adatbázisok hozzá, nem is beszélve arról, hogy a legtöbb algoritmus nem átláthatóan működik. 20 éves jogászi tapasztalatom azonban azt mondja, hogy ha majd egyszer lesznek olyan szinten a gépek, akkor jobb szeretném, ha az ügyemről egy gép döntene, mint egy (ember) bíró.

Más a véleményed? Reagálnál Miklós írására? Ne tartsd magadban a gondolataidat, kommentelj a Facebook-postunk alá!

Ügyvéd

Ügyvéd, vállalkozó, vezető, választottbíró, előadó, mentor. Az OPL partnere. Nyolc évig tanított filozófiát a JÁB-on, évekig blogolt a világ és Magyarország ügyes-bajos dolgairól.

Nem egy ügyvédi iroda vagyunk, hanem egy új generációs jogi szolgáltatási cégcsoport, ahol a legkülönbözőbb jogi munkáktól a kormányzati kapcsolatokon keresztül egészen a legújabb technológiákig sok mindennel foglalkozunk. Ami összeköti ezeket a cégeket és munkáinkat, az a nemzetköziség, professzionalizmus és az innováció. Jófejek vagyunk, és szeretjük az életet... Ja, és csak annyira vesszük komolyan magunkat, amennyire egészséges.

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Ars Bonit a facebookon.