SEÚL.- Corea del Sur se convirtió este jueves en el primer país en implementar formalmente una ley que regula el uso de la inteligencia artificial (IA), la cual incluye disposiciones específicas para 'deepfakes'.
La ley exige que las empresas avisen a los usuarios cuándo sus servicios o productos utilicen IA generativa
SEÚL.- Corea del Sur se convirtió este jueves en el primer país en implementar formalmente una ley que regula el uso de la inteligencia artificial (IA), la cual incluye disposiciones específicas para 'deepfakes'.
El país, sede de los gigantes de los microprocesadores Samsung y SK hynix, anunció que aspira a unirse a Estados Unidos y China como una de las tres principales potencias de la IA.
"La Ley Básica de IA entra plenamente en vigor hoy", celebró el presidente surcoreano, Lee Jae Myung.
La ley exige que las empresas avisen a los usuarios cuándo sus servicios o productos utilicen IA generativa.
También determina que deben etiquetar claramente el contenido, incluidos los 'deepfakes', que no se puedan diferenciar fácilmente de la realidad, entre otros requisitos.
La ley, aprobada en diciembre de 2024, se propone "establecer una base segura y confiable para respaldar la innovación en IA", señaló el Ministerio de Ciencia y TIC surcoreano en un comunicado.
Las infracciones se castigarán con una multa de hasta 30 millones de wones (unos 20.400 dólares).
Medios surcoreanos de prensa señalaron que es la primera ley de regulación de IA en el mundo en entrar en vigor.
Según el ministerio, la iniciativa es la segunda de su tipo en el mundo en ser promulgada.
El Parlamento Europeo afirma que adoptó las "primeras normas del mundo sobre IA" en junio de 2024, pero están entrando en vigor de forma gradual y no serán plenamente aplicables hasta 2027.
Durante el último año, sin embargo, la Unión Europea ha permitido a los reguladores prohibir sistemas de IA que que supongan "riesgos inaceptables" para la sociedad, en virtud de su Ley de Inteligencia Artificial.
Eso podría incluir la identificación de personas en tiempo real mediante cámaras en espacios públicos, o evaluar el riesgo criminal basándose únicamente en datos biométricos.
Corea del Sur ya ha adelantado que triplicará el gasto en inteligencia artificial este año.
La nueva legislación del país asiático designa 10 ámbitos sensibles que quedarán sujetos a requisitos más estrictos de transparencia y seguridad de la IA.
Esto incluye a la energía nuclear, las investigaciones criminales, la evaluación de préstamos, la educación y la atención médica.
"Los escépticos temen las consecuencias regulatorias de la promulgación de la ley", dijo esta semana Lim Mun-yeong, vicepresidente del consejo presidencial para la estrategia nacional de IA.
"La transición del país hacia la IA, sin embargo, es está aún en el inicio, con infraestructura y sistemas insuficientes", admitió Lim, quien agregó que "se necesita acelerar la innovación en IA para explorar una era desconocida".
Si es necesario, "el gobierno suspenderá la regulación, supervisará la situación y responderá adecuadamente", dijo.
Los 'deepfakes' (vídeos y ficheros de audio generados o alterados por IA) captaron la atención mundial en las últimas semanas después de que el chatbot Grok, de la red X, generara indignación y prohibiciones en varios países por permitir a los usuarios crear imágenes sexualizadas de personas reales, incluidos menores.
El ministerio surcoreano de Ciencia dijo que aplicar marcas digitales u otros identificadores similares al contenido generado por IA era una "medida mínima de seguridad para evitar el uso indebido de la tecnología.
"Ya es una tendencia global adoptada por grandes empresas internacionales", indicó el ministerio.
En octubre, California promulgó una ley que regula los chatbots de IA, desafiando el impulso de la Casa Blanca de dejar esa tecnología fuera del alcance de la regulación.
La medida obedeció a revelaciones sobre suicidios de adolescentes que habían utilizado chatbots antes de quitarse la vida.
La ley adoptada en California exige a los operadores implementar salvaguardas "críticas" cuando los usuarios interactúan con sus chatbots de IA, y abre la vía para que las personas presenten demandas si el incumplimiento de esas medidas conduce a tragedias.
FUENTE: Con información de AFP
