Etikátlan etikai maszatolás az MI-fejlesztésekben

E cikk a Bird & Bird és az Arsboni által meghirdetett 2019. évi Cikkíró Pályázat keretében született.
Szerző: Varga Virág

A jogi szabályozás meg sehol

Mi az ethics washing?

Whitewashing.  Jelentése: ’tisztára mosás, erkölcsi tisztázás’. Több szójáték is született a szó analógiájára: pl. greenwashing, ethics washing. Ezek olyan gyakorlatokat takarnak, amelyek lényege, hogy egy entitás (túl)hangsúlyozza magáról, hogy az általa végzett tevékenység rendkívül megfelel bizonyos normáknak. Képzeljük el, hogy egy cég önmagáról gyártott narratívájában nagy hangsúlyt kap, hogy a termékeik környezetkímélők. Ha ez nincs teljesen fedésben a valósággal, akkor beszélhetünk a – szójáték mivolta miatt nehezen lefordítható – greenwashing jelenségéről. Amennyiben egy mesterséges intelligencia (MI) fejlesztésével foglalkozó vállalat saját arculatát úgy határozza meg a nyilvánosság felé, hogy a technológiájuk etikusan, az emberi jólétet szolgálva működik, de a konkrét gyakorlati felhasználás valójában etikai problémákba ütközik, akkor pedig az ún. ethics washing jelenségére láthatunk példát (amelynek lefordítását ugyancsak szójáték mivolta miatt szintén mellőzném – szinonimájaként használatos egyébként az ethics theather kifejezés is). A képzeletbeli cég és MI-fejlesztő vállalat tehát magukat előre is erkölcsileg tisztára mosva próbálnak megelőzni bizonyos potenciális rágalmakat: a környezetszennyezés és az etikátlanság vádját. 

A jelenségek azonban egyáltalán nem csak gondolatkísérlet szintjén léteznek. Hilary Mason, a Fast Forward Labs alapítója szerint a piacvezető MI-fejlesztők által megvalósított ethics washing abban gyökerezik, hogy a vállalatoknak muszáj valamennyi kockázatot vállalniuk, és – mivel túl nagy figyelem szegeződik rájuk kiemelt helyzetük miatt – inkább a termékfejlesztésekben reszkíroznak, mintsem hírnevüket teszik ki a csorbulás veszélyének. Ezért az etikai feddhetetlenség nyilvános kommunikációja mindennél fontosabbá válik, akkor is, ha a valóságban kevésbé etikus a vállalat, mint amennyire annak állítja be magát; így senki nem törhet pálcát felettük az emberközpontúság, az etikusság hiányát számon kérve rajtuk. 

Etikai elvek az MI-fejlesztésekben. És hol maradnak a törvények?

A mesterséges intelligencia több mint fél évszázados történetében, azaz amióta 1956-ban a Dartmouth-i Egyetem nyári workshopján lefektették az MI-n alapuló kutatások alapjait, elsősorban technológiai és gazdasági kérdések domináltak. Az elmúlt néhány évben azonban trendfordulóhoz érkezett a kérdéskör, és egyre nagyobb teret nyer az MI-vel kapcsolatos biztonsági és etikai diskurzus is. De mi a lenyomata mindennek a törvényhozásban? Röviden: nem sok. Ugyanis az ethics washing igazi veszélye nem abban ragadható meg, hogy a valóság eltorzításáról van szó, hanem abban, hogy ha „csak” diskurzus folyik arról, milyen etikai elvek legyenek irányadóak a mesterséges intelligencia fejlesztésében, akkor a konkrét jogi szabályozást könnyebb a szőnyeg alá söpörni. És mindez az elkerülhetetlen és fontos etikai viták álarcában történik. De meddig még?

Kétségtelen, hogy az elmúlt egy év-két évben jelentős előrelépések történtek az elvi szabályozás terén EU-s és hazai szinten is: az Európai Bizottság független szakértői csoportot jelölt ki az etikai irányelvek kidolgozására, amely 2019 áprilisában nyilvánosságra hozta az MI 7 etikai alapelvét; a nemzetközi helyzet fokozódásával párhuzamosan Magyarországon pedig 2018 októberében megalakult a Mesterséges Intelligencia Koalíció. Ben Wagner, bécsi egyetemi professzor szerint az alapelvek (1. az emberi cselekvőképesség támogatása, 2. stabilitás és biztonság, 3. adatvédelem és adatkezelés, 4. átláthatóság, 5. sokféleség, 6. társadalmi és környezeti jólét, 7. elszámoltathatóság) kijelölnek egyfajta emberközpontú MI-fejlesztési irányt, de ezzel párhuzamosan a szigorúbb szabályozás, a konkrét törvényalkotás megelőzését és megakadályozását is szolgálják. Deklarálták az elveket, de kitértek a törvényhozás elől. A törvények kényszerítő ereje nélkül vajon tényleg lehetnek annyira emberközpontúak, etikusak a leendő MI-fejlesztések, mint amennyire az alapelvekben lefektették? Vagy az ethics washing egy tankönyvi példáját láthatjuk? Az alkalmazott etika kvázi-kötelezőként jelenik meg, amely csak akkor válik ténylegesen kötelezővé, ha kellően sérülnek a törvények, más szóval: az etikai irányelvek lehetővé teszik, hogy bizonyos fokig ignorálják a törvényeket a fejlesztők. Ben Wagner szerint mindenképp közös etikai kritériumok kellenek, különben ha több etikai keretrendszer létezik párhuzamosan, mindegyik csak opcionális lesz. Ez – uniós szinten legalábbis – teljesülni látszik.  De nem elég az etikai keretrendszer: a törvényeknek az etikai elvekkel azonos mértékben kell szolgálniuk az emberi (és gépi) viselkedést, törvénynek és etikának találkoznia szükséges a technológia fejlesztések kivitelezésében. 

Miért olyan fontos, hogy a technológiai innovációk a jogalkotásban is innovációval járjanak?

Azért, mert az emberiségnek szüksége van egy védőhálóra a mesterséges intelligenciából fakadó kiszolgáltatottsága miatt. Az ember egyrészt kiszolgáltatott lehet az államnak, amennyiben az nem etikus módon használja a birtokába jutott technológiát: a Kínában 2020-ban bevezetendő társadalmi kreditrendszer megvalósításához máris több száz millió térfigyelő kamerát használnak arcfelismerő programmal. Így minden állampolgár megfigyelhetővé és azonnal kiértékelhetővé válik az állam számára. Az ember másrészt kiszolgáltatott az ún. privát szuperhatalmaknak (pl. Apple, Amazon, Microsoft, Netflix). Ezen szuperhatalmak kezében rendkívüli mértékű és jellegű hatalom koncentrálódik tőke, infrastruktúra, adat és tudás tekintetében: az Apple 2017-es jövedelmei például meghaladták Portugália az évi GDP-jének mennyiségét. Az emberek kiszolgáltatottak önnön kognitív korlátaiknak is: a Youtube bevételeinek 70%-a nem a felhasználók által keresett tartalmak megtekintéséből származik, hanem a videómegosztó által felkínált kontentek megnézéséből, köszönhetően annak, hogy a rendszer egyre szélsőségesebb tartalmak felé terelgeti felhasználóját, már-már kisajátítva az emberi döntési szabadságot is. Végezetül az ember kiszolgáltatott magának a megalkotott technológiának is: az algoritmikus alapú, objektív(nek tűnő) MI-technológiák legnagyobb paradoxona, hogy hiába gépek, mégis csak emberek alkották őket, tehát a „bemenet”, a betáplált algoritmus elkerülhetetlenül szubjektív lesz valamelyest – ez pedig visszafordíthatatlanul maga után vonja, hogy a „kimenet” sem lesz teljesen objektív. Az input és output között ráadásul van egy „fekete doboz” is: a kutatók sem mindig értik, miért generál a rendszer adott kimenetet. 

Azért is fontos lenne még az MI-n alapuló fejlesztések konkrét(abb) jogi szabályozása (nem függetlenül a kiszolgáltatottságtól), mert a technológia felhasználása számos esetben  az emberi jogok sérülésével járhat. Súlyos esetként említhető Kína fentebb már kifejtett példája a digitális diktatúrával és a magánélethez való jog sérülésével (erősebben fogalmazva: elvesztésével). Kevésbé súlyos, de nem elbagatellizálandó ügyként pedig álljon itt Frederic Durand francia tanár és a Facebook esete, amely a véleménynyilvánítás, a szólásszabadság sérüléseként is értelmezhető: a tanár profilját azért tiltotta le a cég, mert az megosztotta Gustave Courbet fotorealisztikus festményét egy vagináról – holott a Facebook felhasználási feltételei engedélyezik a meztelen tartalmak megosztását, amennyiben az ádám- vagy évakosztümben látható alak egy szobormű vagy festmény része. Problémás az is, ha az emberi jogok nem mint emberi jogok fogalmazódnak meg, hanem mint etikai felszólítások: így csak potenciális emberi jogokról beszélhetünk, amelyek veszélybe kerülése csak potenciális cselekvést vonhat maga után a végrehajtók részéről, nem pedig garantált lépést.

Mit hozhat a jövő?

Disztópikus képzetek jelenhetnek meg lelki szemeink előtt, ha a mesterséges intelligencia jövőbeli hatásait próbáljuk elképzelni. Mi lesz, ha a gépek „elveszik” az emberek munkáját, és gyökeresen átalakul a munkaerőpiac? Mi lesz, ha sikerül kifejleszteni az ún. mesterséges szuperintelligenciát? (Ez az emberi képességeket meghaladó MI-típus elnevezése, de nem tekinthető még konszenzuálisnak, hogy valaha ténylegesen is lesz ilyen, ugyanis jelenleg még a nem egyféle feladatra specifikált ún. általános mesterséges intelligencia is csak elméleti síkon létezik.) Hogyan dönt majd egy önvezető jármű, ha választania kell, hogy kis eséllyel megtörténő személyi sérülést vagy nagy valószínűséggel bekövetkező tetemes anyagi kárt okozzon, amennyiben nem tudja elkerülni a balesetet? Az bizonyosnak látszik, hogy nem elsősorban a gépektől kell félnünk (ha félnünk kell egyáltalán bármitől is), ugyanis a gépek vizionált autonómiája kevésbé tűnik veszélyesnek, mint a technológiák nem-etikus ember általi felhasználása.

Az állami szféra lehetséges szabályalkotó szerepe a MI-fejlesztések területén Ben Wagner szerint egyre inkább problémaként, semmint megoldásként artikulálódik, ugyanis a kormányzatok gyakran használják fel politikai vitákban a technológia etikájával kapcsolatos aspektusokat. Ennek köszönhetően mind többen várják a privát szféra kezdeményező szerepét a szabályozás terén. Az érme másik oldalát villantotta fel a Nature hasábjain Yochai Benkler, a Harvard Law School professzora: az ő meglátása szerint éppen a privát szféra szerepét kellene erősen limitálni az MI-szabályozásban, ugyanis a cégek mindent alárendelnek a profitszerzésnek (lásd: a Facebookon és a Youtube-on 2019 tavaszáig áltudományos, pl. oltásellenes hirdetések is láthatóak voltak, feláldozva a társadalom érdekeit a profithajhászás oltárán).

A mesterséges intelligencia megfelelő törvényi háttérrel szolgálhatja az emberi jólét maximalizálását is, ehhez viszont szükséges egy emberközpontú dizájn kialakítása: a technológiának hordoznia kell az alapvető emberi értékeket. Ezeket előbb azonban definiálni szükséges: a különböző kultúrák eltérő értékrendszere miatt kérdéses, milyen széles körű egyetértés alakulhat ki ebben a kérdésben. A magán-, állami, civil és akadémiai szféra közelítése és a szélesebb nyilvánosság számára is érthető közbeszéd kialakítása a téma kapcsán mindenképp fontos lenne, mert a társadalom nem érzi még zsigerileg magáénak a mesterséges intelligenciával kapcsolatos kérdéseket. A mesterséges intelligencia önálló jogágként való szabályozása egyelőre még várat magára, addig is elégedjünk meg az élénkülő etikai diskurzus (pesszimistábban megfogalmazva: az ethics washing) termékeivel.

Források:

A mesterséges intelligenciáról szóló összehangolt terv (https://ec.europa.eu/transparency/regdoc/rep/1/2018/HU/COM-2018-795-F1-HU-MAIN-PART-1.PDF)

Ben Wagner: Ethics as an Escape from Regulation:From ethicswashing to ethicsshopping? In: Being Profiling. Cogitas ergo sum. Amsterdam, 2018.

Courbet vaginát ábrázoló festményéről a Facebook végre rendezte a cenzúra vitáját (https://contextus.hu/facebook-gustave-courbet-cenzura/)

Khari Johnson: How AI companies can avoid ethics washing (https://venturebeat.com/2019/07/17/how-ai-companies-can-avoid-ethics-washing/)

Mesterséges intelligenciáról nem csak informatikusoknak – mitől lehet emberközpontú az MI? (http://elteonline.hu/tudomany/2019/05/24/mesterseges-intelligenciarol-nem-csak-informatikusoknak-mitol-lehet-emberkozpontu-a-mi/?fbclid=IwAR228otzGlI4NAp5MRH0I_hXVw7f0Kkrp7RiJ2ayg_FcBC6i-DzGO8ul1hQ )

Oliver Laasch – Roger Conaway: Responsible Business: The Textbook for Management Learning, Competence and Innovation. Routledge, 2017.

Tóth Renáta Erika: Etikus algoritmusokkal az emberi jogok szolgálatában (https://arsboni.hu/etikus-algoritmusokkal-az-emberi-jogok-szolgalataban/)

Trendforduló az MI-fejlesztésekben (https://www.elte.hu/content/trendfordulo-az-mi-fejlesztesekben.t.19025)

Yochai Benkler: Don’t let industry write the rules for AI. In: Nature 569, 161 (2019)

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.

MEGOSZTÁS