sábado 17  de  febrero 2024
ELECCIONES

La inteligencia artificial se cuela en la política en México

Expertos alertan sobre el uso malintencionado que se le puede dar a la inteligencia artificial que busca desinformar o dañar a alguien

Por REDACCIÓN/Diario Las Américas

CIUDAD DE MÉXICO.- Audios generados con inteligencia artificial, que simulan voces de candidatos o líderes, llegaron a México y se colaron en la política, a medio año de las elecciones presidenciales .A los votantes que ya no creen en lo que dicen los políticos les toca ahora discernir si es real lo que les oyen decir.

El ejemplo más reciente, que está relacionado con las pugnas internas en el oficialismo de Ciudad de México, despertó incertidumbre sobre lo que es real y lo que no en las campañas políticas. También ha levantado el debate acerca de si es posible tener una respuesta totalmente certera sobre estos materiales.

Los expertos en inteligencia artificial ya advierten de la amenaza: ni el oído humano puede distinguir audios originales de los recreados ni tampoco la tecnología puede garantizar una comprobación 100 % fiable.

Lo difícil de verificarlos contrasta con la sencillez con la que pueden ser creados con inteligencia artificial.

La circulación de audios deepfake -que imitan hasta suplantar el tono e identidad de un personaje público- "pone en riesgo el ecosistema de información, porque la gente empieza a tomar decisiones distorsionadas o empiezan a contaminar la esfera pública”, dijo Jesús González, técnico académico del Instituto de Investigaciones Jurídicas de la Universidad Nacional Autónoma de México (UNAM), enfocado en inteligencia artificial.

“Puede generar espacios de desconfianza en donde no sabemos bien qué es lo real y qué es falso”, agregó. Pero, el problema no termina ahí.

Miguel Ángel Romero, analista y consultor político, alerta que estos audios se comparten en un contexto donde también proliferan las filtraciones en México: autoridades que difunden conversaciones privadas y campañas de gobierno que emiten información engañosa.

“El próximo proceso electoral será de deepfakes y estaremos escuchando conversaciones falsas entre candidatos y líderes de opinión”, diagnosticó Romero. El analista también previene que haya audios obtenidos mediante espionaje y que sean desmentidos escudándose en la inteligencia artificial. Puede pasar, opina, que "el político mexicano, dentro de su cinismo, diga que es deepfake, que es falso".

La última polémica ocurrió esta misma semana. Un audio atribuido al aspirante presidencial de Movimiento Ciudadano a las elecciones de 2024, Samuel García, en el que se escucha una voz de hombre con acento norteño que, aparentemente borracho, insulta y amenaza a una mujer. Jorge Álvarez, coordinador de la precampaña de García, indicó que ese audio ya había sido desmentido en 2021.

De hecho, ya fue viral en redes en 2018 y entonces no se vinculó con García, a quien sí pretendía perjudicar ahora.

Uso malintencionado

Los avances tecnológicos y la IA no se perciben per se como una amenaza. Al contrario, políticos de todo el mundo han incorporado inteligencia artificial para definir sus estrategias de comunicación, pero las alertas se han encendido ante el uso malintencionado con el que se busca desinformar o dañar a alguien.

De acuerdo con Claudia Flores Saviaga, investigadora senior en el Civic AI Lab de la Universidad Northeastern, en Boston, Estados Unidos, es la primera vez que se detectan deepfakes en las elecciones mexicanas. Lo atribuyó a una adopción a gran escala de estas tecnologías.

"Es muy peligroso en el tema de elecciones o eventos críticos como estos", comentó. "Es algo que ha creado alerta no solo a gobiernos, sino a todo tipo de organizaciones por las implicaciones que tiene el que se vaya a crear un ambiente en el que no vas a poder distinguir qué es cierto y qué no", agregó.

Si bien existen algunas pistas para identificar un audio falso, como la respiración y las pausas que hace una persona, el oído humano y las tecnologías no son suficientes por sí mismas para detectar con total certeza una voz clonada.

Manel Terrazas, fundador de Loccus.ai, empresa que ofrece un servicio de detección de voces clonadas, reconoció que hasta el momento ninguna tecnología puede definir por completo si un audio es real.

“Al final hay que hacer un paralelismo con cualquier sistema de seguridad. No existe ningún sistema 100 % seguro”, comentó. “Siempre va a ser un ejercicio probabilístico. Nunca va a ser determinista”, explicó.

“Estamos en un momento en el que, para una persona, ser capaz de identificar si una pieza de contenido, ya sea imagen, vídeo o en este caso audio, es real o no, es prácticamente imposible”, dijo.

Es lo que ocurrió con el caso más reciente en México cuando una grabación difundida parecía demostrar la injerencia de Martí Batres, actual jefe de gobierno de la Ciudad de México, en el proceso interno para elegir al próximo candidato del partido oficialista Morena en la capital.

Su voz hacía un llamado a apoyar a Clara Brugada, exalcaldesa de Iztapalapa y quien finalmente fue elegida como la competidora, sobre Omar García Harfuch, exsecretario de Seguridad.

Batres desestimó la supuesta filtración y dijo que el audio había sido generado por inteligencia artificial. Un análisis con la herramienta de Loccus.ia arrojó que el audio era muy probablemente artificial.

Sin embargo, usuarios de redes sociales siguen dudando e incluso algunos defienden la autenticidad del audio semanas después.

Regular el uso de la IA

En ese contexto, el diputado por Morena, Manuel Torruco, presentó una iniciativa ante el Legislativo que propone castigar con cárcel a quienes usen esta tecnología para modificar videos, audios, rostros de personas, grabaciones de voz con la intención de hacerlos pasar como reales.

En Estados Unidos, la Comisión Federal Electoral inició un proceso para regular potencialmente los deepfakes generados por IA en anuncios políticos antes de las elecciones de 2024.

Por su parte, YouTube requerirá que los creadores especifiquen si han utilizado inteligencia artificial generativa para crear videos que parezcan realistas. Si no lo hacen, enfrentarán sanciones que incluyen la eliminación de su contenido o la suspensión de la plataforma lo que conlleva también su salida del programa de reparto de ingresos.

FUENTE: Con información de AP

¡Recibe las últimas noticias en tus propias manos!

Descarga LA APP

Deja tu comentario

Te puede interesar