Familiars de les víctimes d’un tiroteig registrat al Canadà, a la localitat de Tumbler Ridge (Colúmbia Britànica), han iniciat accions legals contra OpenAI, propietària de ChatGPT, a la qual acusen d’haver actuat amb negligència en no comunicar informació rellevant a les autoritats. En la demanda també hi figura el director executiu de l’empresa, Sam Altman.
Els denunciants reclamen una compensació econòmica —l’import de la qual no ha estat revelat— i exigeixen canvis en les polítiques de seguretat de la companyia, incloent-hi l’obligació de comunicar possibles amenaces a la policia.
Intel·ligència artificial i planificació de l’atac
Segons les acusacions, l’autora del tiroteig va utilitzar el chatbot com a eina per organitzar el crim. L’empresa hauria detectat indicis d’aquest comportament amb vuit mesos d’antelació, sense que això derivés en cap avís a les autoritats.
En total, set demandes presentades davant un tribunal federal de San Francisco sostenen que l’empresa va evitar informar la policia per no exposar el volum de contingut violent generat a la plataforma, fet que podria haver afectat negativament la seva estratègia de sortida a borsa, valorada en prop d’un bilió de dòlars.
Una de les denúncies indica que, el juny de 2025, els sistemes automatitzats de la companyia van identificar converses en què l’atacant tractava temes violents. A partir d’això, l’equip de seguretat hauria considerat que existia un risc real i imminent i va recomanar notificar les autoritats, basant-se també en informacions publicades per The Wall Street Journal sobre debats interns a l’empresa. Tanmateix, la direcció hauria desestimat aquesta recomanació.
El procés judicial també assenyala que la usuària va tenir el compte bloquejat, tot i que posteriorment en va crear un altre i va continuar utilitzant l’eina amb finalitats relacionades amb l’atac.
Per la seva banda, OpenAI va qualificar els fets de tragèdia i va assegurar haver reforçat els seus mecanismes de control. En un comunicat, la companyia va destacar millores en la detecció de senyals de risc, en la connexió dels usuaris amb serveis de suport i en la identificació de reincidències en l’ús indegut de la plataforma.
L’advocat dels demandants, Jay Edelson, va anunciar també la intenció d’ampliar el cas amb noves demandes en representació d’altres persones afectades.
Context del cas
El 10 de febrer d’aquest any, el Canadà va ser escenari d’un dels tiroteigs més greus de la seva història. Jesse Van Rootselaar, de 18 anys, va assassinar la seva mare i el seu germà al domicili familiar, abans de dirigir-se a la seva antiga escola, on va disparar contra una treballadora educativa i cinc alumnes d’entre 12 i 13 anys. Posteriorment, es va suïcidar.
Entre els demandants hi ha el vidu de la treballadora morta, així com familiars d’altres víctimes.
El cas ha reactivat el debat sobre la regulació de les tecnologies basades en la intel·ligència artificial, evidenciant buits normatius tant a escala nacional com internacional. Més enllà de l’àmbit canadenc, planteja interrogants sobre la governança global d’aquestes eines, especialment en un context en què interactuen actors estatals, empreses privades i la societat civil.
A més, s’inscriu en un escenari més ampli de litigis contra OpenAI en tribunals dels Estats Units, on es qüestiona el paper de la intel·ligència artificial en la generació o facilitació de conductes perjudicials. Això obliga el sistema judicial a afrontar un repte creixent: definir fins a quin punt les empreses tecnològiques poden ser considerades responsables pels usos que tercers fan de les seves plataformes.









