Libero
DIGITAL LIFE

Come funzionano i filtri per i minori per rendere più sicuri ChatGPT e Claude

I tool basati sull’AI crescono a vista d’occhio anche nelle scuole, per questo Open AI e Anthropic hanno annunciato nuove linee guida pensate per i minorenni

Pubblicato:

Intelligenza artificiale Alexander Supertramp/Shutterstock

In sintesi

  • Per rispondere alle pressioni dei regolatori e proteggere gli adolescenti (13-18 anni), OpenAI e Anthropic hanno potenziato i filtri contro contenuti inappropriati e autolesionismo.
  • L’obiettivo è trasformare l’IA in un “tutor responsabile” capace di riconoscere il contesto delle domande e il linguaggio giovanile, prevenendo al contempo rischi come il plagio e la disinformazione.

La rapidissima crescita dell’intelligenza artificiale generativa nelle scuole e nella vita quotidiana degli adolescenti ha spinto i leader del settore a una necessaria inversione di marcia sulla sicurezza. OpenAI e Anthropic, le due realtà di riferimento con ChatGPT e Claude, hanno recentemente annunciato nuove linee guida e protocolli tecnici pensati specificamente per i minorenni, anche per rispondere alle crescenti pressioni dei regolatori globali.

L’obiettivo è creare un ambiente digitale sicuro che possa diventare un supporto educativo senza esporre i giovanissimi a contenuti inappropriati, manipolazioni o bias cognitivi tipici dei modelli linguistici non filtrati.

OpenAI lavora a filtri più severi e monitoraggio educativo

Per rispondere a questa esigenza, OpenAI ha introdotto aggiornamenti significativi per gli utenti di età compresa tra i 13 e i 18 anni. La strategia si muove su due binari: la prevenzione dei contenuti e il coinvolgimento dei genitori.

Da un lato, il sistema è stato tarato per bloccare con maggiore efficacia la generazione di materiale violento, sessualmente esplicito o che incoraggi comportamenti autolesionistici. Dall’altro, la società sta lavorando per rendere l’IA uno strumento di apprendimento “sicuro per definizione“, includendo una serie di strumenti che permettono agli educatori di integrare ChatGPT nelle classi, con particolare attenzione sulla privacy dei dati.

L’idea di fondo, dunque, è che l’IA debba agire come un tutor moderato, capace di declinare richieste non idonee all’età dell’interlocutore attraverso una comprensione più profonda del contesto delle domande.

Anthropic e il “Constitutional AI” applicato ai giovani

Anthropic, invece, punta su un’architettura distintiva chiamata Constitutional AI, per garantire che Claude, rispetti un codice etico ancora più stringente quando interagisce con i minori. La società ha chiarito che l’accesso ai minori di 18 anni richiede ora verifiche più puntuali e che i filtri di sicurezza sono stati potenziati per riconoscere le sfumature del linguaggio giovanile, spesso utilizzato per aggirare i blocchi standard.

Anche per Anthropic la sfida è mantenere l’utilità del chatbot, noto per le sue capacità di sintesi e scrittura, evitando però che diventi uno strumento per il plagio massivo o per la diffusione di disinformazione, fenomeni a cui i minori sono particolarmente vulnerabili.

La age verification può cambiare le cose?

Il vero nodo di tutta la questione rimane la age verification che, nonostante i proclami, rimane ancora molto complessa da realizzare. Intanto, le big tech dell’IA sono sotto la lente d’ingrandimento dell’Unione Europea (tramite l’AI Act) e degli Stati Uniti, dove si discute con insistenza di leggi per la protezione dei bambini online (come il KOSA).

Per questo motivo, l’approfondimento di queste misure di sicurezza non riguarda solo i blocchi tecnici, ma è una visione a lungo termine che vuole trasformare l’IA da “scatola nera” imprevedibile a compagno di studi responsabile.