A megtévesztés reneszánsza

A megtévesztésnek nem csak negatív aspektusai vannak. A megtévesztés éppúgy állhat a művészet és a szórakozás szolgálatában is (pl. színjátszás, bűvészet), vagy szolgálhatja a túlélést, mint például az ugyancsak a megtévesztésen alapuló camouflage. Azonban egy megtévesztésre alkalmas eszköz egyúttal rosszindulatú felhasználásra is lehetőséget ad. Annál inkább, minél inkább alkalmas a megtévesztésre. Sajnos ez alól a humán kommunikációba bekapcsolódó multimodális generatív mesterséges intelligencia (MI) alkalmazások és azok kimeneti információi sem képeznek kivételt.

 

A megtévesztés lehetősége az MI esetében ráadásul nem csupán a felhasználói szándékon múlik. Az MI kimeneti információinak (fogalmainak) értelmét ugyanis eleve nem azok valósághoz való viszonya, hanem az MI paramétereihez, a tanító adataihoz és saját architektúrájához való viszonya valamint finomhangolása adja. Az MI kimenetei azonban ezzel együtt és ettől függetlenül is nagyon meggyőzően szimulálják a valóságot, különösen azok előtt a felhasználók előtt, akik adott esetben a valóság érintett területéről maguk sem rendelkeznek megalapozott tudással. Ezzel az MI, minden előnye mellett egyúttal a megtévesztés legkiválóbb eszközévé vált.

És hogy mennyire kiváló, azt jól tükrözi, hogy a mai multimodális generatív MI ágensek már nem csupán az ember által alkotott szöveg írott változatának, hanem az emberi hangnak és az emberi mozgásnak is eléggé meggyőző modellezésére képesek ahhoz, hogy gépi mivoltukat illetően megtévesszék a humán felhasználót. Sőt, a Corvinus egyetem kutatóinak egy, a közelmúltban publikált, fordított Turing – teszttel kapcsolatos kutatása azt igazolja, hogy az MI e tekintetben az MI bírálót (interrogatort) is képes megtéveszteni. A kutatás során a gépi (MI)  bíráló az esetek döntő részében (gépek közötti kommunikációban nyolc esetből hétszer) emberként azonosította a gépi kommunikációs partnerét, vagyis nem volt képes megkülönböztetni az embert a géptől.

Ezzel bizonyossá vált, hogy a mesterséges intelligencia (AI) és az ember felismerése és elkülönítése az online térben nemcsak a hús-vér bírálóknak okoz problémát[1]. Ez sajnos azt jelenti, hogy az online térben még nehezebbé válik a valós felhasználók azonosítása és megkülönböztetése, ez pedig minden társadalmi rendszerben komoly kockázattal jár, így a gazdaságban és a politikában is. A kutatók, Hajnal Zsófia, Manran Zhu és Vásárhelyi Orsolya szerint az lenne ideális, ha az MI jobb lenne annak felismerésében, hogy emberrel vagy géppel kommunikál – e, mint abban, hogy embernek tettesse magát, ezért az ember és a mesterséges intelligencia párhuzamos, egymással kölcsönhatásban álló evolúciójában a biztonságunk érdekében szükség lenne egy olyan, ezzel az evolúcióval együtt fejlődő technológiára/eljárásra, amely világosan képes különbséget tenni a gép és az ember között. Ez a megközelítés pedig – ahogy Hajnal fogalmaz – a mesterséges intelligenciával szemben biztonsági elvként várja el azt, hogy az MI mindig legyen jobb az embernél annak felismerésében, hogy MI-vel vagy emberrel kommunikál-e.

Az MI tehát képes olyan sikeres lenni az emberi kimenetek modellezésében, hogy a különbséget egy másik fejlett MI sem ismeri fel, ennek megfelelően akkor is átmegy a Turing teszten, ha a bíráló szerepét egy hozzá hasonló gép látja el. Az MI tehát, csak mint bíráló bukott el a Turing – teszten, ezzel szemben vizsgázóként nagyon is sikeres, ami a megtévesztésnek olyan dimenzióit nyitja meg, amelyekre nem vagyunk felkészülve. Ezt pedig érdemes alaposan végiggondolni.

Az MI technológiának éppen ez a megtévesztésre való alkalmassága az egyik alapja az általa keltett félelemnek. Sam Altman, az OpenAI vezérigazgatója egyenesen arra figyelmeztet, hogy a mesterséges intelligencia mára sok olyan módszert meghaladottá tett, amellyel az emberek egymást az online térben azonosítani szokták (pl. hang, arckép, vagy akár kézírás), és mivel a más emberek meggyőző utánzásának képessége az MI technológia révén az ellenséges felhasználók számára is elérhető, a világ súlyos „csalási válság” felé sodródik[2].  Ezzel párhuzamosan a cyber – biztonsági szakértők arra hívják fel a figyelmünket[3], hogy jóllehet a nagy szolgáltatók (pl. Microsoft, Google stb.) eladási stratégiáikban a saját MI termékeik kapcsán azok cyber elhárításra való alkalmasságát is hangsúlyozzák, az ipari tapasztalat, de különösen a cyber védelem oldaláról szerzett tapasztalat arra utal, mintha a támadói oldal legalább annyit profitálna a technológia használatából, mint a védelem.  Annak ellenére is, hogy mindkét oldal támaszkodik az MI technológiára. Ez nem meglepő, hiszen az eredményes támadások sokszor valamilyen kreatív, eredeti megközelítésen alapulnak, amire a védelem értelemszerűen kevésbé tud felkészülni.

Mivel az MI kimenetei közvetlenül az online térben fejtik ki a hatásukat, vizsgáljunk meg néhány online térben történt megtévesztésen alapuló tényt. Vegyük például a Magyarországon nyilvántartott online térben elkövetett csalások (a csalásnak a megtévesztés tényállási eleme)halmazán belül a Büntető törvénykönyvünk 375 § (1)-(6) szerint minősített információs rendszer felhasználásával elkövetett csalások statisztikai adatait.

A hazai bűnüldözési gyakorlat az online jellemzőkkel rendelkező elkövetési magatartások alapján kialakította az online térben elkövetett csalás kategóriáját, ahová az online térben elkövetett minden, Btk 373 §, és 375§, szerint minősülő csalást sorol. Abból indulok ki, hogy az MI (ami mellesleg szintén egy információs rendszer) által szimulált kimenetek megtévesztésre való felhasználásával az online térben elkövetett bűncselekmények közvetlenül kapcsolhatók ehhez a bűncselekménykategóriához.  Megjegyzendő, hogy ezek között a csalások között vannak olyan tényállások is, amelyeknek az elkövetéséhez nem használnak fel közvetlenül információs rendszereket, erre is tekintettel, és mert az online térben elkövetett csalásokra vonatkozó összesített, hivatkozható statisztika nem áll rendelkezésre, e cselekmények közül kifejezetten a Btk 375 szerinti csalásokra koncentrálok, tekintettel arra, hogy azok szükségképpen informatikai rendszerekhez kapcsolódnak. (A teljes statisztika vélhetően még nagyobb emelkedést mutatna.)

Nos a Btk. 375§(1)-(6) alapján minősített, információs rendszer felhasználásával elkövetett csalások száma 2019 és 2024 között valamivel több mint az 5,7 szeresére, azaz 2.624 ről 15.171-re emelkedett[4]. És most nézzük meg hogyan fejlődtek ebben az időszakban az MI rendszerek? Az MI rendszerek fejlődésének illusztrálásához egy, az MI információfeldolgozó képességére jellemző adatsort, a paraméterszámok emelkedését vettem alapul.

A választás azért esett erre a mutatóra, mert az MI paraméterei (belső beállítások, súlyok és értékek) alapvetően meghatározzák a modell működését, képességeit és viselkedését. A nagyobb paraméterszámmal rendelkező modellek nagyobb információfeldolgozási képességet mutatnak. Minél több paramétere van egy modellnek, annál szofisztikáltabb adatfeldolgozásra képes, annál összetettebb és “mélyebb tudással” rendelkezhet, ami potenciálisan alkalmassá teszi a mélyebb asszociációkra, a ritkább kifejezések kezelésére, vagy pl. a jobb kontextusmegőrzésre. Ennek eredményeképpen a modell kifinomultabb és ezért meggyőzőbb kimeneteket lesz képes generálni. A paraméterszám tehát az MI fejlettségi fokának az egyik legfontosabb jellemzője. Meg kell jegyezni azonban, hogy az MI kimeneteinek kifinomultsága attól is függ, hogy azt milyen minőségű és mennyi adattal tanítják, és hogy hogyan strukturálják, továbbá hogyan hangolják finomra. Olyannyira, hogy egy bizonyos ponton túl a kifinomultságon önmagában a paraméterszám emelkedése már alig javít. A tényleges kifinomultság tehát csak akkor realizálódik, ha a paraméterekhez nagy mennyiségű, sokrétű (gazdag) és tiszta tanítóadatok, megfelelő architektúra, és célzott finomhangolás is társul.

A bűncselekmények száma mindkét ábrán egyezik a BM statisztikai nyilvántartásának adataival, a paraméterszámok növekedését az első ábrán ismert információk alapján, míg a második ábrán a paraméterszámok illusztratív becsült átlaga segítségével szemléltetem. Ennek az az oka, hogy felhasználók számára elérhető modellek paraméterszámai sok esetben nem nyilvánosak. Példának okáért a nyilvános adatok szerint a GPT – 3. 2020-ban 175 milliárd paraméterrel, a Megatron -Turing NLG  2021-ben 530 milliárd, a PaLM — Pathways Language Model pedig 2022-ben 540 milliárd paraméterrel rendelkezett, a Llama 3.1 modell 2024-ben  405 milliárd paraméterrel büszkélkedhetett, ugyanakkor pl. a GPT‑4 és GPT-5 tényleges paraméterszámai nem nyilvánosak, de a becslések arra utalnak, hogy a legfejlettebb modellek esetében a páraméterszám jelenleg meghaladja a billiós nagyságrendet.

1. Ábra: a szerző vázlata ismert paraméterszámokkal és bűnügyi tényadatokkal (prompted by Tamás Parti, generated by ChatGPT5.)
2. Ábra: a szerző vázlata becsült átlag, illusztratív paraméterszámokkal és bűnügyi tényadatokkal (prompted by Tamás Parti, generated by ChatGPT5.)

Történt valami 2022-ben, ami miatt 2022-ről 2024-re a szóban forgó csalások száma több mint a háromszorosára emelkedett, valami, ami hatékonyabbá tette az online térben elkövetett csalásokat. A csalás annál hatékonyabb minél hatékonyabb ez elkövetésénél alkalmazott megtévesztés. Emlékezhetünk rá, hogy a 2022-es év volt az az év, amelynek végén a ChatGPT első, széles körben hozzáférhető változata megjelent, amivel kezdetét vette a generatív MI technológia széles körű elterjedése, és a humán kölcsönhatási rendszerekbe való közvetlen bekapcsolódása.  A technológia azóta is exponenciálisan fejlődik, felhasználási területei pedig egyre bővülnek. A folyamatot ugyanakkor világszerte kétségbeesett MI szabályozásra irányuló jogalkotási erőfeszítéseket kísérik, amelyek szintén 2022-ben vettek lendületet.

A fenti összehasonlítás alapján csak annyit tudunk megállapítani, hogy generatív MI fejlődése és az információs rendszer felhasználásával elkövetett csalások számának drasztikus emelkedése között korreláció mutatkozik, ugyanakkor a (feltehetőleg összetett) kauzalitás megállapításához további elemzés szükséges.

Mindez azonban így is felhívja a figyelmet arra, hogy a Mesterséges Intelligencia elterjedésének egyik legnagyobb kockázata a humán kimenetek élethű szimulálásának technológia adta lehetőségéből fakad. (Az írás részlet a szerző azonos című megjelenés alatt álló tanulmányából)

Források

[1]A legfejlettebb AI is megbukott a fordított Turing-teszten: nem tudja eldönteni, hogy emberrel vagy géppel beszél – Qubit Podcast,  https://qubit.hu/2025/07/31/a-legfejlettebb-ai-is-megbukott-a-forditott-turing-teszten-nem-tudja-eldonteni-hogy-emberrel-vagy-geppel-beszel, https://omny.fm/shows/qubit-podcast/a-legfejlettebb-ai-is-megbukott-a-ford-tott-turing-teszten-nem-tudja-eld-nteni-hogy-emberrel-vagy-g-ppel-besz-l Elhangzik a Qubit podcastjában, Hajnal Zsófia, a Budapesti Corvinus Egyetem doktorandusza és a HUN-REN KRTK Világgazdasági Intézet junior kutatója, valamint Manran Zhu és Vásárhelyi Orsolya

[2] Clare Duffy: OpenAI CEO Sam Altman warns of an AI ‘fraud crisis’ , New York CNN, 2025.07.22. https://www.cnn.com/2025/07/22/tech/openai-sam-altman-fraud-crisis

[3] Futurology Forum of the CNUE (Council of the Notariats of the European Union) – Paris – From data to generative AI applications in the context of cybersecurity

[4] BSR II Landing, Belügyminisztérium, https://bsr.bm.hu/Document

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.