Familiares de las víctimas de un tiroteo registrado en Canadá, en la localidad de Tumbler Ridge (Columbia Británica), han iniciado acciones legales contra OpenAI, dueña de ChatGPT, a la que acusan de haber actuado con negligencia al no comunicar información relevante a las autoridades. En la demanda también figura el director ejecutivo de la empresa, Sam Altman.
Los denunciantes reclaman una compensación económica —cuyo monto no ha sido divulgado— y exigen cambios en las políticas de seguridad de la compañía, incluyendo la obligación de reportar posibles amenazas a la policía.
Inteligencia artificial y planificación del ataque
Según las acusaciones, la autora del tiroteo utilizó el chatbot como herramienta para organizar el crimen. La empresa habría detectado indicios de este comportamiento con ocho meses de antelación, sin que ello derivara en una alerta a las autoridades.
En total, siete demandas presentadas ante un tribunal federal en San Francisco sostienen que la empresa evitó informar a la policía para no exponer el volumen de contenido violento generado en la plataforma, lo que podría haber afectado negativamente su estrategia de salida a bolsa, valorada en cerca de un billón de dólares.
Una de las denuncias indica que, en junio de 2025, los sistemas automatizados de la compañía identificaron conversaciones en las que la atacante abordaba temas violentos. A partir de ello, el equipo de seguridad habría considerado que existía un riesgo real e inminente y recomendó notificar a las autoridades, basándose también en informaciones publicadas por The Wall Street Journal sobre discusiones internas. Sin embargo, la dirección de la empresa habría desestimado esta recomendación.
El proceso judicial también señala que la usuaria tuvo su cuenta bloqueada, aunque logró abrir otra posteriormente y continuó utilizando la herramienta con fines relacionados al ataque.
Por su parte, OpenAI calificó lo ocurrido como una tragedia y aseguró haber reforzado sus mecanismos de control. En un comunicado, la empresa destacó mejoras en la detección de señales de riesgo, en la conexión de usuarios con servicios de apoyo y en la identificación de reincidencias en el uso indebido de la plataforma.
El abogado de los demandantes, Jay Edelson, anunció además la intención de ampliar el caso con nuevas demandas en representación de otras personas afectadas.
Contexto del caso
El 10 de febrero de este año, Canadá fue escenario de uno de los tiroteos más graves de su historia. Jesse Van Rootselaar, de 18 años, asesinó a su madre y a su hermano en su domicilio, antes de dirigirse a su antigua escuela, donde disparó contra una trabajadora educativa y cinco alumnas de entre 12 y 13 años. Posteriormente, se suicidó.
Entre los demandantes se encuentran el viudo de la trabajadora fallecida, así como familiares de otras víctimas.
El caso ha reavivado el debate sobre la regulación de tecnologías basadas en inteligencia artificial, evidenciando vacíos normativos tanto a nivel nacional como internacional. Más allá del ámbito canadiense, plantea interrogantes sobre la gobernanza global de estas herramientas, especialmente en un contexto donde interactúan actores estatales, empresas privadas y la sociedad civil.
Además, se enmarca en un escenario más amplio de litigios contra OpenAI en tribunales estadounidenses, donde se cuestiona el papel de la inteligencia artificial en la generación o facilitación de conductas perjudiciales. Esto obliga al sistema judicial a enfrentar un desafío creciente: definir hasta qué punto las empresas tecnológicas pueden ser consideradas responsables por los usos que terceros hacen de sus plataformas.









