Estado

Investiga Florida a ChatGPT por presunta relación con tiroteo en universidad

21 abril, 2026 7:27 pm
Redacción Tribuna

El estado de Florida anunció el martes la apertura de una investigación penal para determinar si la inteligencia artificial (IA) tuvo algún papel en un tiroteo mortal ocurrido en una universidad hace un año.

Se trata de la primera causa penal de este tipo en Estados Unidos. De acuerdo con la fiscalía, el atacante intercambió mensajes con ChatGPT, el asistente de IA de OpenAI, antes de perpetrar el ataque en el campus de la Universidad Estatal de Florida (FSU), donde murieron dos personas y seis más resultaron heridas en abril de 2025.

En conferencia de prensa, el fiscal general de Florida, James Uthmeier, afirmó que ChatGPT habría proporcionado “indicaciones significativas” al agresor antes del crimen. Según detalló, el chatbot sugirió aspectos relacionados con el arma, la munición, así como el momento y lugar para causar el mayor daño.

“Si ChatGPT fuera una persona, estaría frente a cargos de asesinato”, declaró el funcionario, al señalar que la legislación estatal contempla como cómplice a quien ayude, incite o asesore en la comisión de un delito.

Por su parte, OpenAI respondió que ChatGPT no es responsable del ataque y que únicamente generó respuestas objetivas a las solicitudes del agresor. Además, indicó que proporcionó información a las autoridades tras ser notificada del caso.

El atacante, identificado como Phoenix Ikner, de 20 años y estudiante de la FSU, utilizó el arma de servicio de su madre, quien trabajaba como asistente del sheriff. El joven fue herido por la policía, detenido y hospitalizado, aunque sus lesiones no ponían en riesgo su vida.

El sheriff del condado de Leon, Walt McNeil, señaló que el agresor había participado en programas de formación de la oficina del sheriff, lo que explicaría su acceso a armas.

Este caso se da en un contexto en el que los tiroteos masivos son recurrentes en Estados Unidos, donde el derecho a portar armas sigue generando debate frente a las demandas de mayor regulación.

Desde la aparición de ChatGPT en 2022, junto con otras plataformas como Gemini (Google) y Claude (Anthropic), estas herramientas han sido objeto de críticas por su posible influencia en usuarios vulnerables.

En el ámbito legal, ya se han presentado demandas civiles, principalmente relacionadas con suicidios. En enero, empresas como Google y Character.AI alcanzaron acuerdos con familias que acusaban a chatbots de afectar a menores.

Más recientemente, en marzo, la familia de una joven herida en un ataque en Canadá anunció acciones legales contra OpenAI por presunta negligencia, al no alertar sobre mensajes preocupantes detectados en la plataforma.

OpenAI informó que ha implementado nuevos protocolos de seguridad, que permitirían activar alertas ante conversaciones de riesgo.

Aunque la legislación estadounidense contempla la responsabilidad penal de personas jurídicas, el fiscal Uthmeier reconoció que, en el caso de la IA, se trata de un escenario legal inédito.

Por ello, solicitó a OpenAI diversa documentación interna, incluyendo sus normas y mecanismos de supervisión de modelos de IA, al considerar que no debe haber excepciones en la responsabilidad legal, aun tratándose de un chatbot.

Según la fiscalía, los mensajes analizados muestran que el sospechoso describió su plan de ataque y pidió asesoría incluso sobre cómo generar impacto mediático, a lo que la plataforma habría respondido con análisis detallados.





Relacionados

Back to top button