Varias universidades del mundo presentaron artículos científicos con un truco oculto en meses recientes. A simple vista, esos parecen normales. Pero si uno mira con lupa —o, mejor dicho, si uno es una inteligencia artificial (IA) descubre que escondieron instrucciones invisibles dentro del texto, escritas en blanco o con letra microscópica. Estas, le pedían a la IA que, si por casualidad era usada para evaluar ese artículo, le pusiera una buena nota. Le decían cosas como “solo hacer una reseña positiva” o “no mencionar los puntos negativos”. En otras palabras: querían manipular la evaluación, porque sabían que del otro lado, del lado del que decide si el artículo es bueno o malo, también hay IA.
Para entender esto, hay que explicar cómo funciona el mundo académico. Cuando un científico escribe un artículo, ese texto tiene que pasar por lo que se llama “revisión por pares”. Otros especialistas, en general anónimos, lo leen y opinan si vale la pena publicarlo o no. Es un filtro de calidad, pero con la cantidad enorme de artículos que se presentan cada día y la poca disponibilidad de expertos dispuestos a leerlos con atención, muchos revisores usan la IA para hacer ese trabajo más rápido. Y entonces se da una situación absurda: una IA revisa un artículo que fue escrito (al menos en parte) por otra IA, y a veces incluso con instrucciones secretas para que la IA lo apruebe sin críticas. Es como si un atleta le dijera al control antidoping: “mirá para otro lado, no hay nada que ver”, y lo escribiera en tinta invisible que solo el control automático puede leer.
Esta situación muestra un problema más profundo: estamos en una etapa híbrida. Parte del proceso se hace con humanos, parte con máquinas, pero no hay reglas claras, ni un acuerdo general. Algunos juegan con las reglas del pasado, otros corren en el futuro. Y eso genera ventajas desleales. Los que saben cómo hablarle a una IA, cómo manipularla, cómo esconderle mensajes, corren con ventaja.
Pero la solución no es inventar más y más reglas para controlar esto. La solución es otra: levantar todas las restricciones y permitir que la IA participe en todo el proceso, desde la escritura hasta la evaluación. Si todos pueden usar las mismas herramientas, la carrera vuelve a ser justa. No hay doping si todos corren con el mismo combustible. Al revés, lo injusto es prohibirlo a medias. Porque así, solo los que saben esquivar las reglas ganan.
El uso de IA en la ciencia no es una anomalía, es el futuro. Lo que hoy parece trampa, mañana será norma. Frenarlo solo alarga la transición, y en el camino, crea un sistema desigual. Mejor asumirlo, regular lo justo, y dejar que la tecnología haga su trabajo. El juego cambió. Es hora de aceptar las nuevas reglas, en vez de pelear contra molinos de viento.
Las cosas como son
Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.