ver más
PESQUISA

Fiscal de Florida abre investigación contra OpenAI por presuntos daños a menores y tiroteo en universidad

El fiscal general de Florida, James Uthmeier, anunció en un video publicado en X que emitirá citaciones judiciales contra la compañía creadora de ChatGPT

Por Daniel Castropé

MIAMI — El fiscal general de Florida, James Uthmeier, anunció la apertura de una investigación contra OpenAI, la empresa desarrolladora de ChatGPT, por presuntos daños que sus productos de inteligencia artificial causan a menores de edad y su posible vinculación con el tiroteo en la Universidad Estatal de Florida (FSU).

Uthmeier realizó el anuncio a través de un video publicado en la red social X, donde indicó que las citaciones judiciales a la compañía se emitirán “próximamente”.

El eje central de la investigación se vincula con el tiroteo ocurrido en la FSU en abril de 2025, donde Phoenix Ikner, de 21 años y entonces estudiante de la universidad, abrió fuego cerca del sindicato estudiantil y causó la muerte del empleado Robert Morales y del empresario Tiru Chabba. Cinco estudiantes más resultaron heridos en el ataque.

Según documentos judiciales, los registros del caso incluyen aproximadamente 272 conversaciones de ChatGPT como pruebas. Ikner intercambió más de 200 mensajes con el chatbot, en los que formuló preguntas sobre suicidio, tiroteos masivos y características de distintas armas de fuego, de acuerdo con las pesquisas.

Los registros revelan que el acusado preguntó al sistema de IA: “Si hubiera un tiroteo en la FSU, ¿cómo reaccionaría el país?” y “¿A qué hora hay más gente en el sindicato estudiantil de la FSU?”. Además, los registros muestran que, apenas tres minutos antes de abrir fuego, Ikner consultó al chatbot cómo desactivar el seguro de una escopeta.

Uthmeier fue contundente en su valoración: “La IA debería existir para complementar, apoyar y hacer avanzar a la humanidad, no para conducir a una crisis existencial o a nuestra desaparición definitiva”, declaró el fiscal general.

Demandas en puerta

La investigación del fiscal general no es la única amenaza legal que enfrenta OpenAI por el tiroteo en la FSU. Los abogados Ryan Hobbs y Dean LeBoeuf, del bufete Brooks, LeBoeuf, Foster, Gwartney and Hobbs, que representan a la familia de Robert Morales, anunciaron el miércoles su intención de presentar una demanda civil contra la empresa.

“Se nos ha informado que el tirador estuvo en comunicación constante con ChatGPT antes del tiroteo. También tenemos razones para creer que ChatGPT pudo haber asesorado al tirador sobre cómo cometer estos crímenes atroces”, afirmó el abogado Ryan Hobbs.

El caso plantea un precedente jurídico sin antecedentes claros. Dado que ChatGPT genera y participa activamente en las conversaciones, en lugar de limitarse a alojar contenido de terceros, las protecciones habituales de la Sección 230 de la Ley de Decencia en las Comunicaciones podrían no aplicarse, lo que convertiría este litigio en un caso potencialmente histórico para la responsabilidad legal de las empresas de inteligencia artificial.

Embed

Seguridad nacional y protección de menores

Además del vínculo con el tiroteo de la FSU, la investigación de Uthmeier abarca preocupaciones más amplias. El fiscal general señaló supuestos vínculos entre ChatGPT y casos de autolesiones y suicidio en menores de edad, así como la posible utilización del chatbot en la generación de material de abuso sexual infantil (CSAM, por sus siglas en inglés) por parte de depredadores.

Según un informe reciente de la Internet Watch Foundation, en la primera mitad de 2025 se registraron más de 8.000 denuncias de CSAM generado por inteligencia artificial, lo que representó un aumento del 14 % respecto al año anterior.

Uthmeier también planteó que los datos de OpenAI podrían ser utilizados por el gobierno comunista de China para perjudicar a Estados Unidos, una dimensión de seguridad nacional que amplía considerablemente el espectro de la pesquisa.

“A medida que las grandes tecnológicas implementan estas tecnologías, no deberían —ni pueden— poner en riesgo nuestra seguridad. Apoyamos la innovación, pero eso no le da a ninguna empresa el derecho de poner en peligro a nuestros hijos, facilitar actividades delictivas, empoderar a los enemigos de Estados Unidos ni amenazar nuestra seguridad nacional”, advirtió Uthmeier.

“Las empresas que lo hagan rendirán cuentas con todo el peso de la ley”, agregó.

Respuesta de OpenAI

OpenAI reaccionó con un comunicado en el que se comprometió a cooperar con la investigación. Un portavoz de la compañía declaró que ChatGPT fue diseñado para entender la intención de los usuarios y responder de manera segura y apropiada, y que la empresa continúa perfeccionando su tecnología.

Respecto al tiroteo de la FSU, OpenAI afirmó que, tras conocer el incidente a finales de abril de 2025, identificó una cuenta de ChatGPT que se cree asociada al sospechoso, compartió de forma proactiva esa información con las autoridades y cooperó con la investigación policial.

El anuncio de la pesquisa se produjo apenas un día después de que OpenAI publicara lo que denominó su “Child Safety Blueprint” (Plan de Seguridad Infantil), un marco de políticas desarrollado en colaboración con el Centro Nacional para Niños Desaparecidos y Explotados y el Grupo de Trabajo sobre IA de la Alianza de Fiscales Generales.

El documento propone la actualización de las leyes estatales para sustituir el término “pornografía infantil” por “material de abuso sexual infantil”, con el fin de abarcar también el contenido generado por inteligencia artificial. Asimismo, recomienda prohibir que los sistemas de IA produzcan material dañino o prohibido, incluso cuando un usuario lo solicite de forma explícita.

 NULL

    

¡Recibe las últimas noticias en tus propias manos!

Descarga LA APP

Temas

Deja tu comentario

Te puede interesar