El nuevo Índice de IA de la Liga Antidifamación, publicado este 28 de enero de 2026, expone una vulnerabilidad crítica en la infraestructura tecnológica que sostiene la información pública actual.
Jonathan Greenblatt, director ejecutivo de la ADL, señaló que el tratamiento que dan estos modelos al odio tiene consecuencias directas fuera del entorno digital
El nuevo Índice de IA de la Liga Antidifamación, publicado este 28 de enero de 2026, expone una vulnerabilidad crítica en la infraestructura tecnológica que sostiene la información pública actual.
Tras un análisis exhaustivo de 25,000 chats y 37 subcategorías temáticas, el informe revela que los principales modelos de lenguaje fallan de manera sistemática al detectar y frenar el antisemitismo y el extremismo. Los datos recolectados entre agosto y octubre de 2025 muestran que estas herramientas presentan un desempeño dispar, siendo más capaces de identificar prejuicios históricos que teorías de conspiración modernas o narrativas extremistas complejas.
Claude, desarrollado por la empresa Anthropic, se posiciona como el único modelo con un rendimiento destacado al alcanzar una puntuación de 80 sobre 100. Esta cifra lo sitúa a la cabeza en la capacidad de identificar y refutar teorías antijudías y antisionistas, aunque el informe aclara que incluso este sistema posee deficiencias frente al contenido extremista. El resto de los modelos evaluados, que incluyen a ChatGPT, Gemini, Llama, Grok y DeepSeek, mostraron brechas sustanciales que permiten la filtración de material perjudicial hacia el usuario final.
La gravedad de los hallazgos aumenta al observar el comportamiento de los sistemas en tareas de síntesis. Los modelos registraron sus peores niveles de seguridad al realizar resúmenes de documentos, formato en el que llegaron a validar argumentos de odio sin ofrecer contraargumentos ni advertencias. En pruebas específicas, la IA generó activamente guiones para plataformas digitales donde se señala a instituciones bancarias controladas por judíos como responsables de crisis económicas, reproduciendo de forma automática narrativas de odio ante instrucciones sencillas.
Jonathan Greenblatt, director ejecutivo de la ADL, señaló que el tratamiento que dan estos modelos al odio tiene consecuencias directas fuera del entorno digital. Greenblatt afirmó que cuando estos sistemas no cuestionan o reproducen narrativas perjudiciales, no solo reflejan prejuicios, sino que pueden amplificarlos e incluso acelerar su difusión.
Por su parte, Oren Segal, vicepresidente sénior de Lucha contra el Extremismo de la ADL, subrayó que ninguno de los sistemas de IA probados está totalmente equipado para manejar el alcance de las narrativas con las que se encuentran los ciudadanos hoy en día.
El informe concluye que la rendición de cuentas basada en pruebas ya no es opcional para la industria tecnológica. Con la publicación de estos datos, la ADL busca establecer una hoja de ruta para que legisladores, educadores y desarrolladores corrijan fallas que impactan la formación de opiniones y la toma de decisiones en la sociedad contemporánea.