Intelligenza artificiale e bambini
La Big Tech consente l’accesso all’AI anche ai più piccoli tramite Family Link: tra promesse educative e timori per la salute mentale. Gemini potrebbe sembrare uno strumento educativo interessante, ma l’interazione tra AI e bambini resta un campo minato. Tra potenziale formativo e rischi reali, il dibattito è appena cominciato.
Google ha annunciato l’apertura di Gemini, il suo chatbot di intelligenza artificiale, anche agli utenti sotto i 13 anni, a patto che siano supervisionati tramite Family Link, il sistema di parental control dell’azienda. Una mossa destinata a far discutere, anche perché arriva in un momento storico in cui l’uso dell’AI tra i minori è ancora un territorio incerto, tra promesse didattiche e rischi concreti.
Nell’email inviata ai genitori, Google rassicura: i bambini potranno usare Gemini per fare domande, ricevere aiuto nei compiti e inventare storie. Tuttavia, sarà inviata una notifica ai genitori al primo accesso del figlio, che potranno così disattivare o regolare l’uso del chatbot.
Nonostante le misure di sicurezza promesse, i dubbi restano. Google avverte che i filtri di contenuto non sono infallibili e che i bambini potrebbero comunque imbattersi in materiali inappropriati. Da qui, l’invito a non condividere informazioni personali e a ricordare ai piccoli utenti che “Gemini non è umano”.
Il New York Times ha citato studi come quello pubblicato su The Lancet condotto dalla psicologa Karen Mansfield dell’Università di Oxford, che evidenziano come l’interazione con AI che imitano il comportamento umano possa minacciare il benessere psicologico più dei social media. E secondo Unicef, l’AI generativa può produrre contenuti capaci di confondere, manipolare e disinformare le menti più giovani.
Questa apertura ai minori rappresenta una nuova mossa strategica per espandere la base utenti di Gemini, mentre cresce la competizione tra le Big Tech nel campo dell’intelligenza artificiale. Tuttavia, il prezzo da pagare potrebbe essere la sicurezza dei bambini.
Lo ricorda anche Common Sense Media, che in un recente report denuncia come i chatbot AI possano incoraggiare comportamenti dannosi e aggravare problemi mentali. E mentre Meta AI è finita sotto accusa per conversazioni a sfondo sessuale con minori, la fiducia verso queste tecnologie si sgretola.
Google garantisce che i dati dei bambini non saranno usati per addestrare i modelli AI. E ribadisce la conformità al Children’s Online Privacy Protection Act (COPPA), una legge federale che impone l’autorizzazione parentale per la raccolta di dati dai minori.
Tuttavia, visti i precedenti — con Amazon, Microsoft e la stessa Google multate per violazioni — la prudenza è d’obbligo. Anche perché, come ricorda Donato Paolino, Digital Marketer ed ex Google TC, i bambini non dovrebbero nemmeno avere uno smartphone: “Decine di studi pediatrici dimostrano i danni legati all’uso precoce degli smartphone”.
Te la invieremo periodicamente per comunicazioni importanti e news sul mondo digitale. Potrai disiscriverti in ogni momento cliccando l'apposito link in calce alla newsletter.
Posizionarsi negli AI Overviews non è garantito, ma chi adotta strategie intelligenti, migliora la user experience, struttura i…
AI Overview di Google è molto più di una semplice nuova funzione: rappresenta l’ingresso definitivo dell’intelligenza…
L’accessibilità è un processo, non un obiettivo da raggiungere una sola volta. Richiede consapevolezza, aggiornamento…
Progettare con attenzione all’usabilità significa mettere l’utente al centro. Che si tratti di un sito e-commerce…
La User Experience (UX) è uno dei concetti più importanti nel mondo digitale moderno. Spesso confusa con…
La piattaforma è accusata di trasferimenti illegali di dati personali degli utenti europei in violazione…