![]() | ![]() |
Szerző: Bőcs Annamária
Mesterséges intelligencia a bizonyítás tükrében
A mesterséges intelligencia bíróságokon betöltött szerepe kapcsán egyre többet hallhatunk a gépitanulás-alapú rendszerekről, melyek nagy biztonsággal előrejelzik, hogy melyik bíró, hogyan fog dönteni. Jó példa erre a közelmúltban az Egyesült Államok Legfelsőbb Bíróságának döntéseit lemodellező keretrendszer, vagy egy angol-amerikai kutatócsoport által mesterséges intelligencia bevonásával végrehajtott kutatás, amely az Európai Emberi Jogi Bíróság által tárgyalt ügyek százainak kimeneteléről adott megfelelő előrejelzést. Kevesebb szó esik azonban az eljárások során felhasznált mesterséges intelligenciáról, és itt nem feltétlenül a jogászokat segítő, az iratok összeállítását és tárgyalási stratégiák kidolgozását előmozdító rendszerekre kell gondolni.
A szövegelemzésre használt mesterséges intelligencia, a gépi tanulásra képes rendszer ugyanilyen hatékonysággal képes az ún. beszédszintézisre, vagy a képek, videók manipulálására.
A Nvidia nevű mesterséges intelligencia nem létező személyekről készít élethű képeket, és a képmanipuláció segítségével nemcsak a fénykép retusálására alkalmazható, hanem akár egy emberi arcról készült hiányos képet is képes felépíteni. Segítségével a nyári kép télen készült képpé, a nappal éjszakává alakítható. A rendszer továbbfejlesztett változata álvideók létrehozására is alkalmas.
A DeepFake elnevezésű rendszerrel Barack Obama „szájába adtak” nemkívánatos mondatokat, és készítettek sztárokkal pornófilmet, mely utóbbi igen nagy port kavart. Lényegében a videók manipulálásával, könnyedén manipulálható maga a valóság is.
Siwei Lyu vezette kutatócsoport a new yorki Albany Egyetemen, azon fáradozik, hogy kiszúrja a hibákat ezekben a videókban, vagyis azokra a jelekre fókuszál, amely alapján megkülönböztethetőek a manipulált videók a valódiaktól. A mesterséges intelligencia ugyanis nem képes tökéletesen reprodukálni az ember adta biológiai jeleket, például a pislogást, így a fake videókban ritkábban pislognak. Azonban ezt a jelenséget leszámítva, egy laikus ember számára nehezen megkülönböztethető a manipulált videó a valóditól.
A hanganyagok manipulációja egyszerűbb folyamat: a számítógépes rendszerek szövegtöredékeket összekapcsolva mondatokat és beszédet generálnak, az Apple fejlesztette Siri is ezen az elven működik. A montreali székhelyű kutatóközpontban létrehozott mesterséges intelligencia a Lyrebird, egy gépi tanulásra alkalmas rendszer, amely mindösszesen egy percnyi hanganyag elemzésével bárkinek a beszédstílusát képes elsajátítani. Szintén Obama volt a kutatócsoport által létrehozott fake-hanganyag „áldozata”.
A tendencia az, hogy ezek a fejlesztések gyorsabbak, mint ahogy arra az egyes kormányzatok, jogalkotók és jogalkalmazók reagálni képesek. Éppen ezért ijesztő eredményeket és hatásokat hozhatnak magukkal, hiszen a hang, az arckép, vagyis az emberi biometrikus azonosítók hamisítása visszaéléseket eredményezhet, a médiában felhasználni kívánt ál-hírektől, komoly bűncselekmények elkövetéséig.
Legalábbis akkor, ha a fejlesztések az átlagos fogyasztóhoz kerülnek, vagyis ha tömegek számára megtörténik a felsorolt programok értékesítése, és a rossz kezekbe kerülő programok, visszaélések sorozatát eredményezhetik majd. A hamis hírek elterjedésén túl, ezek a folyamatok milyen veszélyeket hordoznak magában az igazságszolgáltatásban? Ha ezen tendenciákat egy szűk szegmensen keresztül vizsgáljuk meg, akkor elsősorban a bizonyítékok felhasználása, és a kép-, hang-, videó felvételek bizonyító erejének elhalványulására, vagy teljes eltűnésére kell gondolni. Több országban, így hazánkban is szabadon felhasználhatóak a kép-, és hangfelvételek a bizonyítás során mind a büntető-, mind a polgári peres eljárásokban a tényállás szabad megállapításának elvét alkalmazzák.
A Polgári perrendtartásról szóló 2016. évi CXXX. törvény 263. § (1) bekezdése kimondja A bíróság a perben – törvény eltérő rendelkezése hiányában – alakszerű bizonyítási szabályokhoz, a bizonyítás meghatározott módjához vagy meghatározott bizonyítási eszközök alkalmazásához nincs kötve, szabadon felhasználhatja a felek előadásait, valamint minden bizonyítékot, amely a tényállás megállapítására alkalmas.
A hatályos törvény szerint bizonyítási eszközként különösen tanú, szakértő, okirat, képfelvétel, hangfelvétel, kép- és hangfelvétel, valamint egyéb tárgyi bizonyítási eszköz vehető igénybe.
A bizonyítási eszköznek alkalmasnak kell lennie arra, hogy igénybevételével a bíróság a perben jelentős tények megállapításához felhasználható, a mérlegelés során figyelembe vehető bizonyítékhoz juthasson.
A törvény a jogsértő bizonyítási eszközöket is felsorolja,
269. § (1) Jogsértő és a perben nem használható fel az a bizonyítási eszköz, illetve annak elkülöníthető része,
b) amely egyéb jogsértő módon keletkezett,
(2) A bizonyítási eszköz nyilvánvalóan jogsértő, ha ez a rendelkezésre álló bizonyítékok és adatok alapján tényként egyértelműen megállapítható. A bizonyítási eszköz nyilvánvalóan jogsértő voltát a bíróság hivatalból veszi figyelembe és erről a feleket tájékoztatja.
A hatályos a büntetőeljárásról szóló 2017. évi XC. törvény 167. § (1) bekezdése kimondja A büntetőeljárásban szabadon felhasználható a törvényben meghatározott minden bizonyítási eszköz, és szabadon alkalmazható minden bizonyítási cselekmény. A törvény azonban elrendelheti egyes bizonyítási eszközök igénybevételét.
165. § A bizonyítás eszközei:
a) a tanúvallomás,
b) a terhelt vallomása,
c) a szakvélemény,
d) a pártfogó felügyelői vélemény,
e) a tárgyi bizonyítási eszköz, ideértve az iratot és az okiratot is, és
f) az elektronikus adat.
A kérdést és a dilemmát nyilvánvalóan az okozza, hogy mi lesz a helyzet akkor, ha egy manipulált hang-, fénykép-, vagy videót kívánnak felhasználni majd a peres és büntetőeljárásokban, és nem, hogy az adatok alapján tényként egyértelműen nem lesz megállapítható annak jogsértő volta, hanem akár még hosszadalmas szakértői bizonyítási eljárás bevonásával sem. A szabályozásra ugyanis egyértelmű hatást fog gyakorolni az a jelenség, hogy a manipulált bizonyítékok megkülönböztetése a valóditól egyre nehezebbé válhat majd. A szakértők tudás-, és eszköztára pedig messze nem lesz majd olyan széles, hogy ezekre az egyre fejlődő tendenciákra reagálni tudjon.
Mi lesz azokkal a bizonyítási eszközökkel, amely adott esetben perdöntő jelentőséggel bírnak majd egy eljárás során, mert egyértelmű bizonyítékként szolgálnának? Becsatolhatók, benyújthatóak-e az eljárásban, benne marad-e a szabályozásban ezek szabad felhasználási lehetősége? Ha a jogtudomány teljeséggel elutasítja a kép-, videó-, hangfelvételek bizonyítékként történő felhasználását, azzal az eljárásban részt vevő felek, vagy éppen a terhelt jogait tépázza meg, ha engedi, akkor komoly kockázatokat vállal, a tényállás feltárása szempontjából.
Ha nem vesztik el bizonyító erejüket a vizsgált eszközök akkor viszont az eljárásjogi nehézségen túl anyagi jogi szempontból is dilemmákkal találjuk szemben magunkat, hiszen példának okán a hatályos Btk-ban fellelhető Hamis tanúzás bűncselekményének bizonyítása szintén nagy nehézségekbe ütközhet ezáltal. A Btk. 272. § (1) bekezdésének c.) pontja kimondja, hogy, aki büntető- vagy polgári ügyben hamis okiratot vagy hamis tárgyi bizonyítási eszközt szolgáltat, az elköveti a hamis tanúzás bűncselekményét.
Ha a jogalkotó nem szeretné, hogy egyes bizonyítási eszközök eltűnjenek, vagy más negatív tendenciákat eredményezzen a technika ilyen irányú fejlődése, akkor komoly anyagi áldozatokat követel majd az egyes országoktól, hogy megfelelő szakértő gárdát helyezzenek a jogszolgáltatás területeire, és az igazságügyi szakértők, és szakértés olyan magaslatokba jusson, amely felveszi a versenyt a manipuláció ezen tendenciáival. A jövő kérdése, hogy ezek a folyamatok beszivárognak-e a bíróság falain keresztül, és, hogy a fejlődéssel az igazságszolgáltatás képes-e felvenni az (algo)ritmust.
Források, felhasznált irodalomhttps://www.bbc.com/news/av/technology-40598465/fake-obama-created-using-ai-tool-to-make-phoney-speeches
https://www.technologyreview.com/s/604270/real-or-fake-ai-is-making-it-very-hard-to-know/amp/
http://www.wired.co.uk/article/deepfake-fake-videos-artificial-intelligence
http://media.economist.com/news/leaders/21743082-ai-will-make-propaganda-cheap-and-easy-faked-video-donald-trump-points-worrying-future
https://www.economist.com/news/2018/07/05/what-if-ai-made-actors-immortal
Tetszett a cikk? Olvasd el a többi pályaművet is applikációnk segítségével!
[shortstack smart_url='[shortstack smart_url=’https://1.shortstack.com/pJ14Jh’ responsive=’true’ autoscroll_p=’true’]***
Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.











