Durante décadas, las decisiones tecnológicas en las grandes empresas se rigieron por una lógica conservadora disfrazada de criterio técnico. En los años dorados de la computación corporativa, IBM se convirtió en el sinónimo de garantía. Comprar IBM era, más que una decisión tecnológica, una póliza de seguro para los responsables de sistemas: si algo salía mal, nadie los culparía, porque compraron lo más reconocido y serio, a pesar de ser lo más caro. Aquella frase que circulaba en los pasillos, “nadie fue despedido por comprar IBM”, reflejaba una regla tácita que aún sobrevive: la responsabilidad individual se disuelve cuando se elige lo que todos eligen.
OpenAI es el nuevo IBM: las empresas compran tranquilidad, no tecnología
Un análisis preciso para contar las cosas como son
Ese patrón, que parecía un resabio del siglo XX, está hoy más vivo que nunca en el mundo de los modelos de lenguaje de inteligencia artificial (IA). A pesar del auge de modelos open source que ofrecen buenos resultados y mayor flexibilidad, las grandes compañías confían su infraestructura cognitiva a nombres que les suenan conocidos y tranquilizadores: OpenAI, Google y Anthropic. La confianza ya no se construye tanto en base al rendimiento técnico, como en la comodidad psicológica de no ir contra la corriente. No importa que un modelo open source funcione bien, tampoco es relevante que cueste menos. Importa que si todo falla, al menos nadie dirá que fue una decisión temeraria. Importa la cobertura simbólica que da para trabajar con marcas dominantes.
Este comportamiento, profundamente humano, tiene implicancias estratégicas. Para el ecosistema de modelos de lenguaje, consolida un oligopolio de facto. Todos los demás, incluidos los modelos chinos, quedan fuera del tablero. Ni siquiera el bajo precio o la potencia técnica pueden competir cuando lo que se valora es la tranquilidad. Y en el caso de los modelos de China, la sospecha política los hace aún menos viables. Si ya es difícil confiar en algo open source en un entorno empresarial, es directamente impensable confiar en algo open source que además proviene de un país que no se percibe como confiable. Así, la posibilidad de que esos modelos entren a competir en Occidente se desvanece antes de empezar.
Sin embargo, este ciclo tendrá un punto de inflexión. Por ahora, quienes toman las decisiones son personas. Humanos que temen equivocarse y se protegen detrás de lo conocido repitiendo fórmulas heredadas. Pero si en algún momento la elección de los modelos de lenguaje queda en manos de las mismas inteligencias artificiales, el patrón se quebrará. Porque una IA no teme ser despedida y no necesita quedar bien con su jefe. El prestigio de una marca no sirve de guía, sino por parámetros de eficiencia, seguridad, costo y compatibilidad. Y si ese es el caso, ¿a qué modelo preferirá esa inteligencia? ¿Elegirá el que fue construido con más datos? ¿El más rápido? ¿El más transparente? ¿O, simplemente, el que más se le parezca?
Lo curioso es que, en ese futuro, la IA que decida será una IA entrenada por las mismas compañías en las que hoy confían ciegamente. La pregunta es si confiarán incluso cuando esa IA tome decisiones que los humanos jamás se hubieran atrevido. Porque en ese momento ya no habrá IBM que los salve.
Las cosas como son
Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.
NULL
