Google ha compiuto un passo importante per consolidare la sicurezza e la privacy degli studenti e degli insegnanti che utilizzano i suoi strumenti. Il suo nuovo assistente basato sull'intelligenza artificiale, Gemini, offre ora una protezione dei dati di livello aziendale per tutti gli istituti che utilizzano Google Workspace for Education. Questo miglioramento riguarda anche le versioni gratuite del servizio, modificando il panorama della fiducia negli strumenti didattici basati sull'intelligenza artificiale.
Analizziamo nel dettaglio cosa significa, perché è rilevante per scuole, insegnanti e studenti e come può influire sull'uso dell'intelligenza artificiale in classe.
Gemini è basato sulla sua famiglia di modelli linguistici avanzati. In pratica, funziona come una sorta di tutor digitale: risponde a domande, riassume testi, genera idee e aiuta a organizzare le informazioni. Il suo potenziale in ambito educativo è enorme ma, come per qualsiasi strumento digitale, sorge una preoccupazione fondamentale: cosa succede ai dati personali di chi lo utilizza?Laboratori di intelligenza artificiale
Quando si parla di studenti, la protezione delle informazioni diventa ancora più importante. Le scuole non solo gestiscono dati personali, ma sono anche soggette a rigide normative che richiedono la massima attenzione nel trattamento di tali informazioni.
Google ha già offerto queste garanzie per le versioni a pagamento della sua piattaforma educativa, Education Standard ed Education Plus, da ottobre 2024. Tuttavia, ora sta estendendo questa protezione a tutti gli utenti di Google Workspace for Education , indipendentemente dal loro piano.
Ecco cosa include questa protezione:
Copertura dei termini di servizio principali di Google Workspace for Education: Gemini diventa parte dei servizi principali della piattaforma, come Gmail o Google Drive. Ciò significa che si applicano le stesse norme di utilizzo e privacy che tutelano milioni di studenti in tutto il mondo.
Conformità alle normative quali COPPA (Children's Online Protection Act), FERPA (Educational Privacy Act negli Stati Uniti) e HIPAA (nel settore sanitario). Queste leggi stabiliscono standard rigorosi su come devono essere gestite le informazioni sui minori e sugli studenti.
Nessuna revisione umana o utilizzo per l'addestramento del modello: uno dei punti più delicati dell'intelligenza artificiale è sapere se le nostre conversazioni con un assistente vengono utilizzate per "insegnare" a quell'assistente. In questo caso, Google garantisce che le chat di Gemini non vengano esaminate da esseri umani o utilizzate per addestrare ulteriormente il modello. Ciò significa che tra l'utente e lo strumento permangono interazioni.
Supporto tecnico di livello di servizio essenziale: come con Gmail o Docs, gli amministratori scolastici hanno accesso a un supporto specializzato per risolvere i problemi tecnici relativi a Gemini.
Finora, alcune istituzioni scolastiche potrebbero essere state restie a consentire l'uso di Gemini a causa di problemi di privacy. Grazie a queste nuove misure di sicurezza, l'adozione diventa più fattibile, anche per le scuole che non hanno il budget necessario per acquistare le edizioni premium di Workspace.
Ciò implica che:
- Gli studenti possono utilizzare Gemini senza compromettere la propria privacy.
- Gli insegnanti possono consigliarne l'utilizzo come supporto per compiti o processi creativi.
- Le istituzioni scolastiche possono integrare lo strumento con maggiore sicurezza, sapendo che è conforme alle normative vigenti.
Quali vantaggi offre rispetto ad altri assistenti AI?
Molti assistenti AI disponibili in commercio non garantiscono questo livello di privacy, soprattutto nelle versioni gratuite. Gemini si posiziona ora come un'opzione più sicura per l'ambiente educativo, offrendo:
- Trasparenza su come vengono utilizzati i dati.
- Integrazione perfetta con l'ecosistema Google, cosa già ampiamente diffusa in ambito scolastico.
- Gratuito senza rinunciare alla sicurezza, il che apre opportunità anche per le piccole istituzioni o per quelle nei paesi con meno risorse.
La decisione di Google è in linea con le sue altre iniziative volte a promuovere un'intelligenza artificiale responsabile nell'istruzione. Dalla creazione di contenuti didattici sull'etica dell'intelligenza artificiale al sostegno finanziario di progetti come MIT RAISE, l'azienda cerca non solo di introdurre la tecnologia in classe, ma di farlo in modo ponderato.
La disponibilità di queste protezioni per tutti gli utenti dimostra anche un'attenta lettura del contesto: se l'intelligenza artificiale deve far parte dell'apprendimento, ciò deve avvenire in modo etico, rispettoso e sicuro.