La Big Tech consente l’accesso all’AI anche ai più piccoli tramite Family Link: tra promesse educative e timori per la salute mentale. Gemini potrebbe sembrare uno strumento educativo interessante, ma l’interazione tra AI e bambini resta un campo minato. Tra potenziale formativo e rischi reali, il dibattito è appena cominciato.
Un chatbot a misura di bambino?
Google ha annunciato l’apertura di Gemini, il suo chatbot di intelligenza artificiale, anche agli utenti sotto i 13 anni, a patto che siano supervisionati tramite Family Link, il sistema di parental control dell’azienda. Una mossa destinata a far discutere, anche perché arriva in un momento storico in cui l’uso dell’AI tra i minori è ancora un territorio incerto, tra promesse didattiche e rischi concreti.
Nell’email inviata ai genitori, Google rassicura: i bambini potranno usare Gemini per fare domande, ricevere aiuto nei compiti e inventare storie. Tuttavia, sarà inviata una notifica ai genitori al primo accesso del figlio, che potranno così disattivare o regolare l’uso del chatbot.
I rischi evidenziati dagli esperti
Nonostante le misure di sicurezza promesse, i dubbi restano. Google avverte che i filtri di contenuto non sono infallibili e che i bambini potrebbero comunque imbattersi in materiali inappropriati. Da qui, l’invito a non condividere informazioni personali e a ricordare ai piccoli utenti che “Gemini non è umano”.
Il New York Times ha citato studi come quello pubblicato su The Lancet condotto dalla psicologa Karen Mansfield dell’Università di Oxford, che evidenziano come l’interazione con AI che imitano il comportamento umano possa minacciare il benessere psicologico più dei social media. E secondo Unicef, l’AI generativa può produrre contenuti capaci di confondere, manipolare e disinformare le menti più giovani.
Una corsa all’espansione, ma a che prezzo?
Questa apertura ai minori rappresenta una nuova mossa strategica per espandere la base utenti di Gemini, mentre cresce la competizione tra le Big Tech nel campo dell’intelligenza artificiale. Tuttavia, il prezzo da pagare potrebbe essere la sicurezza dei bambini.
Lo ricorda anche Common Sense Media, che in un recente report denuncia come i chatbot AI possano incoraggiare comportamenti dannosi e aggravare problemi mentali. E mentre Meta AI è finita sotto accusa per conversazioni a sfondo sessuale con minori, la fiducia verso queste tecnologie si sgretola.
Privacy e leggi: Google sotto osservazione
Google garantisce che i dati dei bambini non saranno usati per addestrare i modelli AI. E ribadisce la conformità al Children’s Online Privacy Protection Act (COPPA), una legge federale che impone l’autorizzazione parentale per la raccolta di dati dai minori.
Tuttavia, visti i precedenti — con Amazon, Microsoft e la stessa Google multate per violazioni — la prudenza è d’obbligo. Anche perché, come ricorda Donato Paolino, Digital Marketer ed ex Google TC, i bambini non dovrebbero nemmeno avere uno smartphone: “Decine di studi pediatrici dimostrano i danni legati all’uso precoce degli smartphone”.
Iscriviti alla newsletter. Resta aggiornato!
Te la invieremo periodicamente per comunicazioni importanti e news sul mondo digitale. Potrai disiscriverti in ogni momento cliccando l'apposito link in calce alla newsletter.