AI provere uzrasta i bezbednost dece na internetu: između tehnologije i stvarne zaštite

Uvođenje AI provera uzrasta na velikim platformama poput Roblox-a često se predstavlja kao značajan iskorak u zaštiti dece na internetu. Međutim, iz ugla prakse i svakodnevnog rada sa decom, roditeljima i obrazovnim institucijama, važno je napraviti jasnu razliku između tehničke kontrole i stvarne bezbednosti.

The 15 Biggest Risks Of Artificial Intelligence | Bernard Marr

AI sistemi za proveru uzrasta deluju na samom ulazu u platformu – oni pokušavaju da procene da li korisnik zaista ima godine koje navodi. Na taj način mogu da ograniče pristup sadržajima koji su formalno označeni kao neprikladni za mlađe uzraste i da smanje deo očiglednih zloupotreba, poput situacija u kojima se odrasli korisnici bez ikakvih prepreka predstavljaju kao deca. Ipak, to je samo prvi i najpovršniji sloj zaštite.

Najveći rizici za decu na internetu ne nastaju zbog pogrešno unetog uzrasta, već kroz komunikaciju i odnose. AI provere uzrasta ne mogu da prepoznaju manipulaciju, emocionalno ucenjivanje, grooming, vršnjačko nasilje ili pritisak koji se odvija postepeno i često neprimetno. One ne razumeju kontekst, nameru ni psihološku dinamiku odnosa, zbog čega ne mogu da spreče situacije u kojima se dete oseća ugroženo, zbunjeno ili povređeno. Zbog toga AI ne čini internet bezbednim – on ga čini administrativno kontrolisanijim, što su dve veoma različite stvari.

AI je privremena tehnička mera

U tom smislu, AI provere uzrasta treba posmatrati kao privremenu tehničku meru, a ne kao dugoročno rešenje. One su pre svega odgovor na pritisak javnosti, regulatornih tela i medija, ali ne i zamena za sistemski pristup zaštiti dece. Prava bezbednost zahteva digitalnu pismenost dece, kontinuiranu edukaciju roditelja, aktivnu ulogu škole i jasnu odgovornost samih platformi. Oslanjanje isključivo na tehnologiju stvara lažni osećaj sigurnosti i može dovesti do toga da se suštinski problemi zanemare.

Posebno osetljivo pitanje predstavlja odgovornost u situacijama kada AI sistem pogreši. U praksi se ona često razvodnjava – platforme se pozivaju na „najbolje dostupne tehničke mere“, dok se odgovornost indirektno prebacuje na roditelje. Ipak, odgovornost nikada ne sme biti prebačena na dete. Ako dete završi u rizičnoj situaciji uprkos uvedenim merama, to znači da je sistem zakazao. Zbog toga je neophodno jasno definisati granice odgovornosti platformi i regulatora, kako bi zaštita dece bila stvarna, a ne samo formalna.

Zloupotreba biometrije?

Dodatni izazov predstavlja prikupljanje biometrijskih podataka dece u okviru AI provera uzrasta. Biometrijski podaci su trajni i ne mogu se promeniti u slučaju zloupotrebe ili curenja. Postavlja se važno etičko pitanje: da li je prihvatljivo da dete mora da ustupi deo svog identiteta kako bi bilo zaštićeno od rizika koje je stvorila sama digitalna platforma? Bez jasnih zakonskih garancija, nezavisnog nadzora i principa minimalnog prikupljanja podataka, ovakve mere mogu imati dugoročne negativne posledice po pravo deteta na privatnost.

Zbog svega navedenog, zaštita dece na velikim digitalnim platformama mora biti regulisana mnogo šire od same AI provere uzrasta. Potrebno je da bezbednost dece bude ugrađena u sam dizajn platformi, da zaštitna podešavanja budu podrazumevana, a ne opciona, i da se algoritmi i sistemi moderacije učine transparentnijim. Takođe, neophodna je stalna saradnja sa stručnjacima za razvoj dece, psiholozima i edukatorima.

Zaštita dece na internetu nije isključivo tehnički izazov. Ona je pre svega društveno, obrazovno i etičko pitanje.

AI može biti koristan alat u tom procesu, ali nikada ne sme postati zamena za odgovornost odraslih, institucija i digitalnih platformi koje oblikuju online prostor u kome deca odrastaju.

Veštačka inteligencija i bezbednost dece na internetu

Veštačka inteligencija je danas svuda oko nas. Ona više nije tehnologija budućnosti, već deo svakodnevnog života dece i mladih – često i pre nego što su toga svesni. Deca koriste veštačku inteligenciju dok gledaju video-sadržaje, igraju igrice, dopisuju se na društvenim mrežama, rade domaće zadatke ili razgovaraju sa čet-botovima koji im deluju kao „pametni sagovornici“. Upravo zato, kao edukator za bezbednost dece na internetu, imam obavezu da o veštačkoj inteligenciji govorim otvoreno, jasno i odgovorno – bez zastrašivanja, ali i bez idealizovanja.

Artificial intelligence and consultancy: Opportunities and challenges of  Generative AI

Veštačka inteligencija funkcioniše na osnovu prikupljanja i obrade ogromnih količina podataka. Kada dete koristi aplikaciju, platformu ili igru koja ima ugrađene AI sisteme, ono vrlo često nesvesno ostavlja digitalne tragove: šta voli, šta gleda, koliko dugo se zadržava na određenom sadržaju, kakve reči koristi, pa čak i u kakvom je raspoloženju. Za dete, to je „samo aplikacija“. Za sistem veštačke inteligencije – to su dragoceni podaci.

Jedan od najvećih rizika leži upravo u tome što deca ne razumeju kako AI „uči“ o njima. Algoritmi ne razmišljaju kao ljudi, nemaju moral, empatiju ni osećaj odgovornosti. Njihov cilj je da zadrže pažnju korisnika što je duže moguće. Zbog toga deci vrlo brzo počinju da se prikazuju sadržaji koji su sve intenzivniji, šokantniji ili emocionalno jači. To naročito dolazi do izražaja na platformama poput TikTok i YouTube, gde algoritmi veštačke inteligencije odlučuju šta će dete sledeće gledati – ne na osnovu toga šta je bezbedno, već šta će ga najduže zadržati na ekranu.

Glavni problemi

Poseban problem predstavlja personalizacija sadržaja. Veštačka inteligencija ne vidi dete kao dete – već kao korisnika. Ona ne zna koliko dete ima godina, da li je emocionalno zrelo za određene teme, niti kakve posledice određeni sadržaj može imati na njegovo mentalno zdravlje. Tako dete može vrlo brzo doći u kontakt sa neprimerenim, uznemirujućim ili opasnim sadržajima, bez da je ikada svesno kako se to dogodilo.

Još jedan ozbiljan rizik jeste komunikacija sa AI čet-botovima. Deca često doživljavaju ove sisteme kao „nekoga ko ih razume“, ko ih ne osuđuje i ko je uvek tu. Međutim, veštačka inteligencija nije prijatelj. Ona ne brine o detetovoj bezbednosti i ne prepoznaje opasne situacije na način na koji bi to uradila odrasla osoba. Postoji realna opasnost da dete čet-botu poveri lične informacije, osećanja, probleme ili čak podatke o porodici, ne shvatajući da sve što napiše ostaje zabeleženo i može biti zloupotrebljeno.

Veštačka inteligencija takođe omogućava stvaranje izuzetno uverljivih lažnih sadržaja. Fotografije, video-zapisi i glasovi danas se mogu falsifikovati do te mere da ih ni odrasli često ne mogu razlikovati od stvarnih. Za decu je to još opasnije. Mogu postati žrtve manipulacije, ucene, lažnih profila ili tzv. „deepfake“ sadržaja u kojima se njihovo lice ili glas koriste bez dozvole. Ovo otvara potpuno nova vrata digitalnog nasilja, koje je sofisticiranije, teže za dokazivanje i emocionalno razornije.

Zloupotrebe

Posebno zabrinjavajući aspekt razvoja veštačke inteligencije jesu deepfake zloupotrebe, koje predstavljaju ozbiljnu i rastuću pretnju po bezbednost dece na internetu. Zahvaljujući AI alatima, danas je moguće veoma lako preuzeti fotografiju ili video deteta sa društvenih mreža i manipulacijom napraviti lažni sadržaj u kome dete „govori“, „radi“ ili „učestvuje“ u nečemu što se nikada nije dogodilo. Ovakvi materijali mogu se koristiti za ismevanje, digitalno nasilje, ucene, ali i za mnogo opasnije oblike eksploatacije. Problem je dodatno otežan činjenicom da deca često ne razumeju kako je takav sadržaj nastao, pa osećaju stid, strah ili krivicu, i ne usuđuju se da se obrate odraslima. Deepfake zloupotrebe mogu imati dugoročne posledice po mentalno zdravlje deteta, njegov osećaj sigurnosti i identiteta, zbog čega je od presudne važnosti da decu učimo da ne dele svoje fotografije i snimke bez razmišljanja, ali i da znaju da ovakvi sadržaji nisu njihova krivica i da uvek postoji način da se zaštite i potraže pomoć.

Ne smemo zaboraviti ni obrazovni aspekt. Veštačka inteligencija se sve češće koristi za izradu školskih zadataka, sastava i projekata. Iako može biti koristan alat za učenje, problem nastaje kada dete ne razume granicu između pomoći i zamene sopstvenog razmišljanja. Ako AI postane „prečica“ umesto alata, dete gubi priliku da razvija kritičko mišljenje, kreativnost i sposobnost rešavanja problema – veštine koje su ključne za njegov razvoj.

Zbog svega navedenog, ključ bezbednosti nije u zabrani, već u edukaciji. Decu moramo učiti šta je veštačka inteligencija, kako funkcioniše i zašto ne treba slepo verovati svemu što vide ili čuju na internetu. Moramo ih osnažiti da postavljaju pitanja: ko je napravio ovaj sadržaj, zašto mi je baš ovo prikazano, da li je ovo istina, kome mogu da se obratim ako mi je nešto neprijatno ili zbunjujuće.

Podjednako važna je i uloga roditelja i nastavnika. Odrasli moraju biti digitalno pismeni kako bi mogli da vode decu kroz ovaj kompleksan svet. Razgovor, poverenje i jasno postavljena pravila korišćenja tehnologije daleko su efikasniji od kontrole i kazni. Dete koje zna da može da se obrati odrasloj osobi bez straha – dete je koje je zaista zaštićeno.

Veštačka inteligencija sama po sebi nije ni dobra ni loša. Ona je alat. Ali u rukama deteta, bez znanja i podrške, može postati ozbiljan rizik. Naš zadatak jeste da deci damo znanje, a ne strah; razumevanje, a ne zabrane; i sigurnost da u digitalnom svetu nikada nisu sami.