2025. december elején több millió ausztrál tinédzser ébredt arra, hogy nem fér hozzá közösségi média fiókjához. Az érintett platformok az Instagram, Facebook, Threads, Snapchat, YouTube, TikTok, Kick, Reddit, Twitch és az X voltak. Az intézkedés célja a 16 éven aluliak védelme a függőséget okozó algoritmusoktól, az online ragadozóktól és a digitális zaklatástól.

Az online korhatár‑ellenőrzés kérdése azonban nem pusztán technikai probléma: alapjogi, adatvédelmi és piaci érdekek metszéspontjában álló szabályozási dilemma. Az egyes jogrendszerek erre eltérő válaszokat adnak: az internetszolgáltatókra épülő szűréstől a platformszintű kockázatkezelésen át a teljes hozzáférés tiltásáig.
A gyermekek védelme már az internet megjelenése előtt is kihívást jelentett a hagyományos médiában. A lineáris műsorszolgáltatás keretében az obszcén és erőszakos tartalmaktól való védelem idősáv besorolással volt megoldható. Ezt a logikát bontotta meg az internet, ahol a tartalmak bármikor és bárhonnan elérhetővé váltak.
Ekkor indult meg a küzdelem, hogy milyen szabályozással lehet megakadályozni a gyermekek hozzáférését a káros tartalmakhoz úgy, hogy ugyanakkor a tartalmakhoz a felnőttek hozzáférhessenek. De hogyan lehetséges online különbséget tenni felnőtt és gyerek között?
A korai szabályozási kísérletek két fő irányt követtek. Az egyik az internetszolgáltatókon (ISP) keresztüli szűrés volt, a másik pedig a felnőtt tartalmakat kínáló weboldalak korhatár-ellenőrzésre kötelezése.
ISP alapú szűrés
Az első esetben könnyebbnek tűnik a megoldás, mivel az ISP-k általában csak nagykorú előfizetővel szerződhetnek, de így is sokszor felháborodást keltett egy-egy túl szigorú szabályozási tervezet, még abban az esetben is, ha a kötelező szűrést az előfizető kérésére a szolgáltatók kikapcsolták (opt out modell). Ilyen szabályozást terveztek bevezetni Ausztráliában 2007-ben, hogy a teljes kontinensen szűrjék a gyermekek számára káros tartalmakat az internetszolgáltatókon keresztül, és csak külön kérésre férhessenek azokhoz hozzá. A jelentős ellenállás miatt azonban végül nem vezették be ezt a fajta kötelező szűrést. Ehhez hasonló megoldás működik az Egyesült Királyságban 2013 óta, de kvázi „önkéntes alapon”, amit a nagy internetszolgáltatók önszabályozás keretében vezettek be.
Tartalomszolgáltató-oldali korhatár-ellenőrzés
A tartalomszolgáltatók esetében sokkal nehezebb a megoldás. A korhatár-ellenőrzés jelentős kihívást jelent, mivel teljes bizonyosággal csak abban az esetben állapítható meg, hogy a látogató nagykorú, ha egy külső adatbázissal – amelynek során az illető személyazonossága ellenőrzésre kerül – összekapcsolják a felnőtt tartalom eléréséhez szükséges azonosítót (általában egy PIN kódot vagy jelszót). Talán a legszigorúbb korhatár-ellenőrzést Németországban vezették be, ahol a Büntető Törvénykönyv alapján a tartalomszolgáltatók olyan életkor-azonosító megoldást kötelesek alkalmazni, amelynek részeként egy személyes ellenőrzést követően az igénylő egy jelszót kap, amivel a felnőtt tartalmakhoz hozzáférhet. Ilyen személyes azonosítást biztosít például a német posta, ahol személyi igazolvány bemutatását követően kézbesíthetik a „pornójelszót”. Ezt a személyes ellenőrzést később kibővítették webkamerával, illetve EID alapú állami digitális azonosítóval való ellenőrzés lehetőségével. Ez a fajta megoldás azonban jelentős versenyhátrányt jelent a helyi tartalomszolgáltatók számára, mivel minél több kattintást, azonosítást és adminisztratív lépést igényel egy online tartalom elérése, annál kevesebben fogják ténylegesen felkeresni azt, különösen akkor, ha ugyanaz a tartalom másutt egyszerűbben hozzáférhető. A felnőtt tartalmakhoz kapcsolódó életkor-ellenőrzési rendszerek ráadásul a GDPR szerint érzékeny személyes adatok – így a szexuális orientációra utaló információk – kezelését vonják maguk után, miközben a felhasználóknak kifejezett beleegyezést kellene adniuk arra is, hogy bankok, mobilszolgáltatók vagy állami nyilvántartások tudomást szerezzenek arról, hogy felnőtt tartalmat kívánnak elérni, ami erős visszatartó hatással bír.

Platform-szintű kockázatkezelés (DSA)
A szabályozás legújabb hulláma az online platformokat célozza, ideértve a közösségi média szolgáltatókat is. Az Európai Unió Digital Services Act (DSA) rendelete előírta a kiskorúak számára hozzáférhető online platformot üzemeltető szolgáltatók számára, hogy megfelelő és arányos intézkedéseket hozzanak annak érdekében, hogy szolgáltatásukkal összefüggésben biztosított legyen a kiskorúak magánéletének magas szintű védelme és biztonsága.
A DSA már nem tartalomkategóriákból indul ki, hanem kockázatokat azonosít. A kiskorúak védelme nem csupán az obszcén vagy erőszakos tartalmakra terjed ki, hanem az addiktív ajánlórendszerekre, a mentális egészséget veszélyeztető tartalmakra, valamint a sebezhetőségre építő üzleti gyakorlatokra is. A DSA, illetve a kapcsolódó Bizottsági iránymutatás előírja, hogy az életkor-korlátozott tartalmak esetében a szolgáltatók hatékony, ugyanakkor adatminimalizáló életkor-ellenőrzési (age assurance) megoldásokat alkalmazzanak, amelyek kizárólag az életkori jogosultság tényét igazolják (pl. „elmúlt-e 18”, a felhasználó neve vagy születési dátuma nélkül).
A Bizottság a DSA végrehajtása során már több pornószolgáltatóval – így a Pornhub, Stripchat, XNXX és XVideos – szemben indított eljárást elégtelen korhatár-ellenőrzés miatt. A megfelelés elmulasztása akár a globális árbevétel 6%-áig terjedő bírságot is eredményezhet.
Teljes tiltás / account-alapú modell (Ausztrália)
A cikk elején hivatkozott ausztrál szabályozás ugyan szintén a közösségi média szolgáltatókat érinti, azonban nem a hozzáférést, hanem magát a közösségi médiafiók létezését tiltja meg 16 év alatt. A felelősség a szolgáltatókat terheli, amelyek kötelesek ésszerű intézkedéseket tenni az életkor ellenőrzésére, például már meglévő életkori adatok ellenőrzésével, illetve a viselkedési minták és interakciók alapján történő mesterséges intelligenciával történő korbecslés alapján. Kétség esetén a felhasználónak lehetőséget kell adni az életkoruk bizonyítására, akár igazolvánnyal akár egy video-selfie-vel. A bírság összege akár 27 millió eurónak megfelelő összeg is lehet.
A hazai internetszolgáltatók, így a Magyar Telekom Nyrt. is jogi szempontból egyszerűbb helyzetben vannak. Az elektronikus hírközlési szabályok alapján kötelesek szűrőszoftverek elérhetőségét biztosítani, és erről tájékoztatni az előfizetőket. A Telekom TVGO tartalomszolgáltatás esetében pedig tekintettel arra, hogy a felnőtt tartalmak csak a fizetős verzióban érhetőek el, mindenképpen egy felnőtt tudja beállítani azt a gyermekzárat, amelyen keresztül kontrollálni tudja, hogy ki fér hozzá a felnőtt tartalmakhoz.
A korhatár‑ellenőrzés jövője a fenti példák alapján nem pusztán technológiai kérdés: az alapjogok, az anonimitás, a piaci verseny és a gyermekvédelem közötti kényes egyensúly megtalálása határozza meg, hogy a szabályozási válaszok hosszú távon mennyire bizonyulnak fenntarthatónak.
Források- https://www.abc.net.au/news/2007-12-31/conroy-announces-mandatory-internet-filters-to/999946?utm
- https://commonslibrary.parliament.uk/research-briefings/sn07031/?utm
- KJM-Pressemitteilung 10/2014; KJM bewertet drei weitere Lösungen zur Altersverifikation für geschlossene Benutzergruppen im Internet positiv: http://www.die-medienanstalten.de/presse/pressemitteilungen/kommission-fuer-jugendmedienschutz/detailansicht/article/kjm-pressemitteilung-102014-kjm-bewertet-drei-weitere-loesungen-zur-altersverifikation-fuer-geschl.html (elérve: 2016. 03. 06.)
- https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors?utm_source=chatgpt.com
- https://ec.europa.eu/commission/presscorner/detail/en/ip_25_1339
- https://www.legislation.gov.au/C2024A00127/asmade/text
- https://www.esafety.gov.au/industry/regulatory-guidance#social-media-minimum-age
- Januártól igényelhető a mobilszolgáltatóknál a szűrt internetszolgáltatás • Nemzeti Média- és Hírközlési Hatóság
***
Ha nem szeretnél lemaradni a további írásainkról, kövesd az Arsbonit a Facebookon. Videós tartalmainkért pedig látogass el a Youtube csatornánkra.










