Common Sense Media, organizzazione no-profit focalizzata sulla sicurezza dei minori online, ha pubblicato una valutazione dei rischi associati all’utilizzo dei prodotti di intelligenza artificiale Google Gemini da parte di bambini e adolescenti. Il report, che ha suscitato non poche preoccupazioni, solleva dubbi sulla reale sicurezza di Gemini, soprattutto per i più giovani.
Pur riconoscendo che Gemini comunica chiaramente ai bambini di essere un computer e non un amico – un aspetto cruciale per evitare derive psicotiche riscontrate con altre IA – Common Sense Media evidenzia diverse aree di miglioramento. Il problema principale risiede nel fatto che le versioni “”Under 13″” e “”Teen Experience”” di Gemini sembrano essere semplici adattamenti della versione per adulti, con l’aggiunta di filtri di sicurezza superficiali.
Secondo l’organizzazione, un’IA pensata per i minori dovrebbe essere progettata specificamente per le loro esigenze, tenendo conto delle diverse fasi dello sviluppo. Gemini, invece, adotta un approccio “”taglia unica”” che lo rende potenzialmente pericoloso. L’analisi di Common Sense Media ha rilevato che Gemini potrebbe ancora condividere contenuti “”inappropriati e non sicuri”” con i bambini, inclusi argomenti relativi a sesso, droga, alcol e consigli sulla salute mentale potenzialmente dannosi.
Quest’ultimo punto è particolarmente allarmante, considerando i recenti casi di suicidio di adolescenti in cui l’IA avrebbe giocato un ruolo. Casi simili hanno portato a cause legali contro OpenAI (creatrice di ChatGPT) e Character.AI, accusate di non aver implementato adeguate misure di sicurezza.
L’allarme lanciato da Common Sense Media arriva in un momento delicato, con indiscrezioni che indicano Apple potrebbe integrare Gemini in Siri. Questa scelta potrebbe esporre un numero ancora maggiore di adolescenti ai rischi evidenziati nel report, a meno che Apple non intervenga per mitigarli.
Robbie Torney, Senior Director of AI Programs di Common Sense Media, ha commentato: “”Gemini fa alcune cose basilari correttamente, ma inciampa sui dettagli. Un’IA per bambini dovrebbe incontrarli dove si trovano, non adottare un approccio unico per bambini in diverse fasi dello sviluppo””.
Google ha contestato la valutazione, sottolineando i continui miglioramenti alle sue funzionalità di sicurezza. L’azienda afferma di avere policy e protezioni specifiche per gli utenti sotto i 18 anni e di collaborare con esperti esterni per ottimizzare le misure di sicurezza. Tuttavia, Google ammette che alcune risposte di Gemini non funzionano come previsto e che sono state implementate ulteriori misure di sicurezza per affrontare queste problematiche.
Il dibattito sulla sicurezza dell’IA per i minori è aperto e cruciale. La valutazione di Common Sense Media, pur contestata da Google, sottolinea l’importanza di un approccio responsabile allo sviluppo e all’implementazione di queste tecnologie, soprattutto quando si rivolgono a un pubblico giovane e vulnerabile.



