ChatGPT ha davvero previsto una strage in Canada?
Dopo la strage in British Columbia emerge che OpenAI aveva bannato l’autore mesi prima. Perché non ha avvisato la polizia?

In un mondo sempre più mediato dagli algoritmi, la linea di demarcazione tra la tutela della privacy e il dovere di prevenire tragedie imminenti si fa sempre più sottile. Recentemente, il caso di Jesse Van Rootselaar, autore di una delle peggiori stragi scolastiche nella storia del Canada, ha messo OpenAI — l’azienda che ha sviluppato ed offre ChatGPT — al centro di un acceso dibattito etico e legale.
I segnali d’allarme e il ban del 2025
Secondo quanto riportato da testate internazionali come The Guardian e ripreso dai principali media tecnologici, i sistemi di sicurezza di OpenAI avevano già “messo nel mirino” Van Rootselaar molto prima del tragico evento di Tumbler Ridge. Nel giugno del 2025, ben otto mesi prima della sparatoria, i filtri anti-abuso dell’azienda avevano segnalato l’account del giovane per “promozione di attività violente”.
A seguito di questa segnalazione, OpenAI aveva proceduto al ban immediato dell’utente, bloccandogli l’accesso ai servizi per violazione delle linee guida. Tuttavia, nonostante la gravità del materiale rilevato, l’azienda decise di non contattare la Royal Canadian Mounted Police (RCMP).
Il criterio del “rischio imminente”
La domanda che ora molti si pongono è: perché OpenAI non ha avvertito la polizia? La società ha spiegato che la decisione di riferire un caso alle forze l’ordine si basa su una soglia molto alta: deve esistere un rischio imminente e credibile di gravi danni fisici a terzi.
La tragedia è avvenuta la scorsa settimana nella remota località della British Columbia: il giovane ha ucciso otto persone, tra cui la madre, il fratellastro, un assistente scolastico di 39 anni e cinque giovanissimi studenti tra i 12 e i 13 anni. Dopo il massacro, Van Rootselaar si è tolto la vita. Solo dopo aver appreso la notizia dai media, OpenAI ha contattato proattivamente la polizia canadese per fornire i dati sull’uso di ChatGPT da parte del ragazzo, supportando le indagini ora in corso.
Tra prevenzione e sorveglianza di massa
Il caso solleva una questione fondamentale per il futuro della tecnologia: fino a che punto un’azienda privata deve monitorare e denunciare i propri utenti? Se da un lato il mancato allarme ha lasciato spazio a una tragedia immane, dall’altro una segnalazione sistematica di ogni conversazione “sospetta” rischierebbe di trasformare i chatbot in strumenti di sorveglianza di massa.
Jesse Van Rootselaar, si è scoperto in seguito, aveva già avuto contatti con la polizia per problemi di salute mentale e aveva persino creato un “simulatore di sparatoria” su altre piattaforme. Eppure, le informazioni sono rimaste frammentate tra i vari database aziendali e statali. Questa vicenda dimostra che, nonostante i progressi dell’IA nell’individuare contenuti pericolosi, la capacità di “unire i puntini” e prevenire atti di violenza nel mondo reale resta una sfida umana e tecnologica ancora lontana dall’essere risolta.
ChatGPT e sicurezza pubblica
La vicenda di Tumbler Ridge non offre risposte semplici, ma impone domande urgenti. Nell’era dell’intelligenza artificiale, il confine tra responsabilità privata e sicurezza pubblica resta fragile. E finché tecnologia e istituzioni non sapranno davvero dialogare, il rischio è che i segnali restino isolati, troppo tardi per evitare nuove tragedie.



















