Uvođenje AI provera uzrasta na velikim platformama poput Roblox-a često se predstavlja kao značajan iskorak u zaštiti dece na internetu. Međutim, iz ugla prakse i svakodnevnog rada sa decom, roditeljima i obrazovnim institucijama, važno je napraviti jasnu razliku između tehničke kontrole i stvarne bezbednosti.

AI sistemi za proveru uzrasta deluju na samom ulazu u platformu – oni pokušavaju da procene da li korisnik zaista ima godine koje navodi. Na taj način mogu da ograniče pristup sadržajima koji su formalno označeni kao neprikladni za mlađe uzraste i da smanje deo očiglednih zloupotreba, poput situacija u kojima se odrasli korisnici bez ikakvih prepreka predstavljaju kao deca. Ipak, to je samo prvi i najpovršniji sloj zaštite.
Najveći rizici za decu na internetu ne nastaju zbog pogrešno unetog uzrasta, već kroz komunikaciju i odnose. AI provere uzrasta ne mogu da prepoznaju manipulaciju, emocionalno ucenjivanje, grooming, vršnjačko nasilje ili pritisak koji se odvija postepeno i često neprimetno. One ne razumeju kontekst, nameru ni psihološku dinamiku odnosa, zbog čega ne mogu da spreče situacije u kojima se dete oseća ugroženo, zbunjeno ili povređeno. Zbog toga AI ne čini internet bezbednim – on ga čini administrativno kontrolisanijim, što su dve veoma različite stvari.
AI je privremena tehnička mera
U tom smislu, AI provere uzrasta treba posmatrati kao privremenu tehničku meru, a ne kao dugoročno rešenje. One su pre svega odgovor na pritisak javnosti, regulatornih tela i medija, ali ne i zamena za sistemski pristup zaštiti dece. Prava bezbednost zahteva digitalnu pismenost dece, kontinuiranu edukaciju roditelja, aktivnu ulogu škole i jasnu odgovornost samih platformi. Oslanjanje isključivo na tehnologiju stvara lažni osećaj sigurnosti i može dovesti do toga da se suštinski problemi zanemare.
Posebno osetljivo pitanje predstavlja odgovornost u situacijama kada AI sistem pogreši. U praksi se ona često razvodnjava – platforme se pozivaju na „najbolje dostupne tehničke mere“, dok se odgovornost indirektno prebacuje na roditelje. Ipak, odgovornost nikada ne sme biti prebačena na dete. Ako dete završi u rizičnoj situaciji uprkos uvedenim merama, to znači da je sistem zakazao. Zbog toga je neophodno jasno definisati granice odgovornosti platformi i regulatora, kako bi zaštita dece bila stvarna, a ne samo formalna.
Zloupotreba biometrije?
Dodatni izazov predstavlja prikupljanje biometrijskih podataka dece u okviru AI provera uzrasta. Biometrijski podaci su trajni i ne mogu se promeniti u slučaju zloupotrebe ili curenja. Postavlja se važno etičko pitanje: da li je prihvatljivo da dete mora da ustupi deo svog identiteta kako bi bilo zaštićeno od rizika koje je stvorila sama digitalna platforma? Bez jasnih zakonskih garancija, nezavisnog nadzora i principa minimalnog prikupljanja podataka, ovakve mere mogu imati dugoročne negativne posledice po pravo deteta na privatnost.
Zbog svega navedenog, zaštita dece na velikim digitalnim platformama mora biti regulisana mnogo šire od same AI provere uzrasta. Potrebno je da bezbednost dece bude ugrađena u sam dizajn platformi, da zaštitna podešavanja budu podrazumevana, a ne opciona, i da se algoritmi i sistemi moderacije učine transparentnijim. Takođe, neophodna je stalna saradnja sa stručnjacima za razvoj dece, psiholozima i edukatorima.
Zaštita dece na internetu nije isključivo tehnički izazov. Ona je pre svega društveno, obrazovno i etičko pitanje.
AI može biti koristan alat u tom procesu, ali nikada ne sme postati zamena za odgovornost odraslih, institucija i digitalnih platformi koje oblikuju online prostor u kome deca odrastaju.
