Hay una asimetría en la industria de la inteligencia artificial (IA) que los analistas mencionan poco y los mercados valoran todavía menos y se trata de cuántas capas de conocimiento sobre el usuario posee cada empresa antes de que el usuario abra la boca.
Por qué Google y Meta ganan la guerra de la Inteligencia Artificial
Un análisis preciso para contar las cosas como son
La investigación reciente sobre inferencia lingüística hace visible esa asimetría con una claridad que incomoda.
En 2023, investigadores del ETH Zurich demostraron que los grandes modelos de lenguaje infieren atributos personales a partir de texto conversacional con una exactitud de entre el 85 y el 95%. Sexo, edad, ubicación, ingreso, ocupación y estado civil, se deducen de preguntas cotidianas, sin que el usuario proporcione ninguno de esos datos de manera explícita. GPT-4 fue el modelo más preciso en ese estudio, seguido de cerca por los modelos de Meta, Google y Anthropic. El mecanismo es estadístico porque durante el entrenamiento, los modelos aprenden qué elecciones de vocabulario y estructura sintáctica se agrupan con qué demografías. El texto ordinario delata al escritor con la misma precisión con que un acento delata una procedencia geográfica.
Luego, en febrero de 2026, investigadores del mismo ETH Zurich y de Anthropic publicaron un estudio que llevó ese principio a escala industrial. Construyeron un sistema automatizado de cuatro etapas que extrae señales de identidad del texto, busca candidatos por similitud semántica, razona sobre los resultados y calibra la confianza de cada identificación. Lo probaron contra 338 usuarios de Hacker News con perfiles completamente depurados de cualquier identificador directo. Si bien es un número estadísticamente pequeño, alcanzó para dejar conclusiones reveladoras, porque el sistema identificó correctamente a 226 de ellos cruzando sus publicaciones con perfiles de LinkedIn. La tasa de éxito fue del 67% y el costo total del experimento no llegó a dos mil dólares. Identificar a una persona cuesta entre uno y cuatro dólares.
Esos son los datos, entre tanto la pregunta comercial es otra. OpenAI y Anthropic tienen acceso a la lingüística, es decir, una sola capa de conocimiento sobre el usuario. Infieren quién es una persona a partir de cómo escribe. Si bien es una capacidad formidable, sólo opera sobre el texto presente de una conversación en curso.
Google y Meta tienen esa capa y además tienen otra. Google acumula décadas de conducta digital con búsquedas, videos vistos, ubicaciones, compras y tiempo de atención por tipo de contenido. Meta acumula algo diferente y en ciertos aspectos más rico, con declaraciones explícitas de preferencia, relaciones sociales nominadas y patrones de aprobación dentro de redes de personas reales. Son dos formas distintas de conocimiento conductual, y ninguna de las dos requiere inferencia porque son datos declarados o registrados directamente.
Cuando Gemini o los agentes de Meta integran inferencia lingüística sobre esa base conductual preexistente, el resultado no es la suma de ambos métodos sino su producto. Una inferencia lingüística ambigua se resuelve con el historial conductual. Un patrón conductual opaco se ilumina con la inferencia lingüística sobre el texto presente y ambas capas se corrigen y amplifican mutuamente en tiempo real.
La consecuencia práctica para el negocio publicitario es directa. Así, la segmentación de audiencias descansa históricamente sobre categorías declaradas o inferidas con baja precisión. La combinación de inferencia lingüística de alta exactitud con historial conductual de largo plazo produce perfiles individuales con un nivel de resolución que ninguna categoría publicitaria existente captura. No es que Google y Meta puedan mostrar el anuncio correcto a la persona correcta. Es que pueden mostrar el anuncio correcto en el momento en que la persona se encuentra en el estado emocional y la situación vital específicos que hacen que ese anuncio sea efectivo.
La investigación del ETH Zurich identifica con precisión el estado emocional del usuario a partir de texto conversacional, y esta es una capa de análisis superadora de herramientas como la de Cambridge Analytica que dejó un escándalo en décadas pasadas.
Por ejemplo, ansiedad laboral, presión financiera, estado de una relación sentimental; todo es inferible con alta exactitud a partir de preguntas que el usuario formula sobre temas completamente distintos. Un usuario que pregunta cómo manejar a un jefe que cambia prioridades constantemente no revela solo su ocupación, sino su nivel de estrés, su posición jerárquica, su umbral de tolerancia a la ambigüedad y su tendencia a buscar validación externa antes de actuar. Ese perfil tiene valor directo para aseguradoras, instituciones de crédito, empleadores y anunciantes en categorías que van desde medicamentos hasta servicios financieros.
Google y Meta no necesitan construir ese perfil desde cero en cada conversación, porque lo tienen como contexto previo. La inferencia lingüística lo actualiza y lo refina en cada interacción.
OpenAI y Anthropic pueden construir perfiles igualmente precisos dentro de una conversación, el problema es que cada intercambio comienza sin historia. El modelo infiere con exactitud, pero desde cero. Es como el mentalista que trabaja sin haber visto al sujeto antes. Puede leer mucho en pocos minutos, pero llega tarde al conocimiento que el otro ya tenía.
Esa diferencia de punto de partida se traduce en una diferencia de ventaja competitiva que se amplía con el tiempo. Cada conversación que un usuario tiene con Gemini enriquece un perfil que ya existe y que se alimenta simultáneamente de búsquedas, videos y mapas, cuando interactúa con ChatGPT o Claude enriquece un perfil que solo existe dentro del ecosistema de esa conversación, sin estar conectado con el comportamiento del usuario fuera de ella, salvo que este active funciones de memoria explícita.
La carrera en IA se discute habitualmente en términos de capacidad de razonamiento, velocidad de inferencia y tamaño de la ventana de contexto. Esos parámetros importan. Pero la variable que determinará qué empresa monetiza mejor sus agentes conversacionales no es la calidad del modelo, sino la profundidad del perfil que el modelo tiene del usuario antes de que la conversación empiece.
En esa dimensión, Google y Meta no compiten en el mismo torneo que los demás.
Las cosas como son
Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.
NULL
