Elmúltál 18? Az online korhatár-ellenőrzés kihívásai

2025. december elején több millió ausztrál tinédzser ébredt arra, hogy nem fér hozzá közösségi média fiókjához. Az érintett platformok az Instagram, Facebook, Threads, Snapchat, YouTube, TikTok, Kick, Reddit, Twitch és az X voltak. Az intézkedés célja a 16 éven aluliak védelme a függőséget okozó algoritmusoktól, az online ragadozóktól és a digitális zaklatástól.

Az online korhatárellenőrzés kérdése azonban nem pusztán technikai probléma: alapjogi, adatvédelmi és piaci érdekek metszéspontjában álló szabályozási dilemma. Az egyes jogrendszerek erre eltérő válaszokat adnak: az internetszolgáltatókra épülő szűréstől a platformszintű kockázatkezelésen át a teljes hozzáférés tiltásáig.

A gyermekek védelme már az internet megjelenése előtt is kihívást jelentett a hagyományos médiában. A lineáris műsorszolgáltatás keretében az obszcén és erőszakos tartalmaktól való védelem idősáv besorolással volt megoldható. Ezt a logikát bontotta meg az internet, ahol a tartalmak bármikor és bárhonnan elérhetővé váltak. 

Ekkor indult meg a küzdelem, hogy milyen szabályozással lehet megakadályozni a gyermekek hozzáférését a káros tartalmakhoz úgy, hogy ugyanakkor a tartalmakhoz a felnőttek hozzáférhessenek. De hogyan lehetséges online különbséget tenni felnőtt és gyerek között?

A korai szabályozási kísérletek két fő irányt követtek. Az egyik az internetszolgáltatókon (ISP) keresztüli szűrés volt, a másik pedig a felnőtt tartalmakat kínáló weboldalak korhatár-ellenőrzésre kötelezése. 

ISP alapú szűrés

Az első esetben könnyebbnek tűnik a megoldás, mivel az ISP-k általában csak nagykorú előfizetővel szerződhetnek, de így is sokszor felháborodást keltett egy-egy túl szigorú szabályozási tervezet, még abban az esetben is, ha a kötelező szűrést az előfizető kérésére a szolgáltatók kikapcsolták (opt out modell). Ilyen szabályozást terveztek bevezetni Ausztráliában 2007-ben, hogy a teljes kontinensen szűrjék a gyermekek számára káros tartalmakat az internetszolgáltatókon keresztül, és csak külön kérésre férhessenek azokhoz hozzá. A jelentős ellenállás miatt azonban végül nem vezették be ezt a fajta kötelező szűrést. Ehhez hasonló megoldás működik az Egyesült Királyságban 2013 óta, de kvázi „önkéntes alapon”, amit a nagy internetszolgáltatók önszabályozás keretében vezettek be. 

Tartalomszolgáltató-oldali korhatár-ellenőrzés

A tartalomszolgáltatók esetében sokkal nehezebb a megoldás. A korhatár-ellenőrzés jelentős kihívást jelent, mivel teljes bizonyosággal csak abban az esetben állapítható meg, hogy a látogató nagykorú, ha egy külső adatbázissal – amelynek során az illető személyazonossága ellenőrzésre kerül – összekapcsolják a felnőtt tartalom eléréséhez szükséges azonosítót (általában egy PIN kódot vagy jelszót). Talán a legszigorúbb korhatár-ellenőrzést Németországban vezették be, ahol a Büntető Törvénykönyv alapján a tartalomszolgáltatók olyan életkor-azonosító megoldást kötelesek alkalmazni, amelynek részeként egy személyes ellenőrzést követően az igénylő egy jelszót kap, amivel a felnőtt tartalmakhoz hozzáférhet. Ilyen személyes azonosítást biztosít például a német posta, ahol személyi igazolvány bemutatását követően kézbesíthetik a „pornójelszót”. Ezt a személyes ellenőrzést később kibővítették webkamerával, illetve EID alapú állami digitális azonosítóval való ellenőrzés lehetőségével. Ez a fajta megoldás azonban jelentős versenyhátrányt jelent a helyi tartalomszolgáltatók számára, mivel minél több kattintást, azonosítást és adminisztratív lépést igényel egy online tartalom elérése, annál kevesebben fogják ténylegesen felkeresni azt, különösen akkor, ha ugyanaz a tartalom másutt egyszerűbben hozzáférhető. A felnőtt tartalmakhoz kapcsolódó életkor-ellenőrzési rendszerek ráadásul a GDPR szerint érzékeny személyes adatok – így a szexuális orientációra utaló információk – kezelését vonják maguk után, miközben a felhasználóknak kifejezett beleegyezést kellene adniuk arra is, hogy bankok, mobilszolgáltatók vagy állami nyilvántartások tudomást szerezzenek arról, hogy felnőtt tartalmat kívánnak elérni, ami erős visszatartó hatással bír.

Platform-szintű kockázatkezelés (DSA)

A szabályozás legújabb hulláma az online platformokat célozza, ideértve a közösségi média szolgáltatókat is. Az Európai Unió Digital Services Act (DSA) rendelete előírta a kiskorúak számára hozzáférhető online platformot üzemeltető szolgáltatók számára, hogy megfelelő és arányos intézkedéseket hozzanak annak érdekében, hogy szolgáltatásukkal összefüggésben biztosított legyen a kiskorúak magánéletének magas szintű védelme és biztonsága. 

A DSA már nem tartalomkategóriákból indul ki, hanem kockázatokat azonosít. A kiskorúak védelme nem csupán az obszcén vagy erőszakos tartalmakra terjed ki, hanem az addiktív ajánlórendszerekre, a mentális egészséget veszélyeztető tartalmakra, valamint a sebezhetőségre építő üzleti gyakorlatokra is. A DSA, illetve a kapcsolódó Bizottsági iránymutatás előírja, hogy az életkor-korlátozott tartalmak esetében a szolgáltatók hatékony, ugyanakkor adatminimalizáló életkor-ellenőrzési (age assurance) megoldásokat alkalmazzanak, amelyek kizárólag az életkori jogosultság tényét igazolják (pl. „elmúlt-e 18”, a felhasználó neve vagy születési dátuma nélkül). 

A Bizottság a DSA végrehajtása során már több pornószolgáltatóval – így a Pornhub, Stripchat, XNXX és XVideos – szemben indított eljárást elégtelen korhatár-ellenőrzés miatt. A megfelelés elmulasztása akár a globális árbevétel 6%-áig terjedő bírságot is eredményezhet.

Teljes tiltás / account-alapú modell (Ausztrália)

A cikk elején hivatkozott ausztrál szabályozás ugyan szintén a közösségi média szolgáltatókat érinti, azonban nem a hozzáférést, hanem magát a közösségi médiafiók létezését tiltja meg 16 év alatt. A felelősség a szolgáltatókat terheli, amelyek kötelesek ésszerű intézkedéseket tenni az életkor ellenőrzésére, például már meglévő életkori adatok ellenőrzésével, illetve a viselkedési minták és interakciók alapján történő mesterséges intelligenciával történő korbecslés alapján. Kétség esetén a felhasználónak lehetőséget kell adni az életkoruk bizonyítására, akár igazolvánnyal akár egy video-selfie-vel. A bírság összege akár 27 millió eurónak megfelelő összeg is lehet. 

A hazai internetszolgáltatók, így a Magyar Telekom Nyrt. is jogi szempontból egyszerűbb helyzetben vannak. Az elektronikus hírközlési szabályok alapján kötelesek szűrőszoftverek elérhetőségét biztosítani, és erről tájékoztatni az előfizetőket. A Telekom TVGO tartalomszolgáltatás esetében pedig tekintettel arra, hogy a felnőtt tartalmak csak a fizetős verzióban érhetőek el, mindenképpen egy felnőtt tudja beállítani azt a gyermekzárat, amelyen keresztül kontrollálni tudja, hogy ki fér hozzá a felnőtt tartalmakhoz.

A korhatárellenőrzés jövője a fenti példák alapján nem pusztán technológiai kérdés: az alapjogok, az anonimitás, a piaci verseny és a gyermekvédelem közötti kényes egyensúly megtalálása határozza meg, hogy a szabályozási válaszok hosszú távon mennyire bizonyulnak fenntarthatónak.

Források
Telekom A Jogtanácsosok a digitális világban rovat a Telekom jogi csapatának állandó rovata az Arsbonin.

***

Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.