viernes 7  de  febrero 2025
OPINIÓN

De herramienta a arma: cómo los autoritarismos explotan la IA de Google

Un análisis preciso para contar las cosas como son

Por Mookie Tenembaum

Google descubrió que jáqueres respaldados por gobiernos como Irán, China, Rusia y Corea del Norte emplearon su inteligencia artificial, Gemini, para actividades maliciosas. Aunque la inteligencia artificial se desarrolló con fines legítimos, como la automatización de tareas, la asistencia en la escritura y la traducción de idiomas, su uso indebido despertó preocupaciones en el ámbito de la ciberseguridad. Lo que inicialmente se diseñó como una herramienta para ayudar a personas y empresas a trabajar de manera más eficiente, ahora también actores estatales la aprovechan para ataques cibernéticos.

Para profundizar en este problema, es importante saber qué es exactamente Gemini. Se trata de un modelo de inteligencia artificial desarrollado por Google que tiene la capacidad de procesar texto, generar respuestas coherentes, traducir idiomas y ayudar a los usuarios a resolver problemas técnicos. Su utilidad es innegable: facilita el acceso a la información y permite que muchas tareas sean más rápidas y precisas. Sin embargo, los mismos beneficios que la hacen atractiva para usos legítimos también pueden hacerla peligrosa en las manos equivocadas.

El caso de Irán es especialmente preocupante, ya que, según Google, es el país que más utilizó Gemini con fines maliciosos. Se estima que el 75% del uso indebido detectado proviene de hackers iraníes. Una de las maneras en que explotaron esta herramienta es mediante la creación de mensajes de phishing. El phishing es una técnica de engaño en la que un atacante envía correos electrónicos o mensajes falsos que parecen legítimos con el objetivo de obtener información confidencial de la víctima, como contraseñas o datos bancarios. Con la ayuda de Gemini, los hackers traducen estos mensajes a distintos idiomas y los hacen más convincentes. También utilizaron la inteligencia artificial para investigar y recopilar datos sobre personas y organizaciones que podrían ser sus objetivos. Esto les permite planear ataques de manera más efectiva. Además, intentaron generar scripts de software, pequeños programas que pueden automatizar tareas en una computadora y que, en ciertos casos, pueden ser utilizados para actividades ilegales.

Uno de los grupos iraníes más activos en este ámbito es APT42, conocido por su especialización en campañas de phishing. Este grupo empleó Gemini para generar contenido engañoso y ha representado un tercio de toda la actividad iraní detectada en la plataforma. Pero Irán no es el único país involucrado en este tipo de prácticas. China también encontró formas de usar Gemini para sus propios fines. En su caso, la inteligencia artificial se apalancó para investigar instituciones gubernamentales de Estados Unidos y crear contenido con intenciones propagandísticas. Según Google, al menos veinte grupos de hackers chinos utilizaron esta tecnología para buscar información sobre sistemas de Microsoft y para traducir documentos que les permitan comprender mejor el funcionamiento de empresas y gobiernos extranjeros.

Por su parte, Corea del Norte optó por una estrategia distinta. En lugar de enfocarse en ataques directos, empleó Gemini para redactar solicitudes de empleo falsas. Este país infiltra trabajadores en empresas tecnológicas de Occidente para acceder a información confidencial. También utilizó la inteligencia artificial para buscar datos en foros de internet, en especial aquellos relacionados con la tecnología militar y nuclear de Corea del Sur. Su objetivo es recopilar información que pueda ser utilizada en su propio desarrollo tecnológico y militar.

Rusia, en cambio, usó Gemini con más limitaciones que Irán y China. Solo se identificaron tres grupos de hackers rusos apalancando esta herramienta, lo que llevó a especular que pueden emplear herramientas propias o simplemente tratando de evitar ser detectados. Sin embargo, el impacto de su actividad no es menor. Parte de estos hackers están vinculados a entidades estatales que antes estaban bajo el control de Yevgeny Prigozhin, el exlíder del grupo Wagner. Se utilizó Gemini para reescribir artículos con un enfoque pro-Kremlin y manipular contenido con el fin de influir en la opinión pública. Se trata de una estrategia de desinformación muy parecida a la de campañas políticas y conflictos internacionales del pasado.

A pesar de estos intentos de abuso, Google aseguró que su inteligencia artificial cuenta con medidas de seguridad diseñadas para impedir el uso indebido. Gemini no permite la creación de archivos maliciosos tipo malware ni la extracción de información personal de los usuarios. Además, está programada para detectar intentos de manipulación, como cuando los hackers tratan de engañar a la IA para que realice tareas prohibidas. En algunos casos, estos actores han intentado utilizar métodos conocidos como jailbreaks, que consisten en modificar o adaptar ciertas peticiones para que la IA pase por alto sus restricciones. Sin embargo, Google afirma que estas estrategias no fueron exitosas.

Para reforzar la seguridad de su inteligencia artificial, Google DeepMind, la división de la compañía encargada de la investigación en inteligencia artificial avanzada desarrolla modelos de amenaza que identifican vulnerabilidades y trabajan en la prevención de futuros abusos. También se implementaron herramientas automáticas que ponen a prueba la resistencia de Gemini ante ataques de manipulación. Estos sistemas ayudan a detectar debilidades y permiten mejorar los mecanismos de defensa antes de que puedan ser explotados por hackers.

Lo que queda claro en este caso es que la inteligencia artificial no solo está transformando la manera en que trabajamos y accedemos a la información, sino que también está abriendo nuevas posibilidades para actores malintencionados. Mientras las empresas tecnológicas trabajan en medidas de seguridad para evitar el mal uso de sus herramientas, los hackers estatales siguen buscando maneras de aprovecharlas para sus propios intereses. La batalla entre la innovación y la seguridad es constante y plantea desafíos que aún están lejos de resolverse por completo. Lo que hoy es una barrera efectiva, mañana podría ser vulnerada por nuevas estrategias, lo que obliga a la industria a mantenerse en constante actualización y mejora.

El caso de Gemini es un recordatorio de que la inteligencia artificial es una herramienta poderosa, pero su impacto depende de cómo se utilice. Por un lado, puede facilitar el acceso a información y optimizar procesos, pero, por otro, puede convertirse en un arma en las manos equivocadas. La clave está en seguir desarrollando tecnologías que sean útiles para la sociedad mientras se minimizan los riesgos de su explotación por parte de actores maliciosos.

Las cosas como son.

Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

¡Recibe las últimas noticias en tus propias manos!

Descarga LA APP

Deja tu comentario

Te puede interesar