sábado 7  de  septiembre 2024
POLÉMICA

Sólo compromisos rigen a tecnológicas por peligros de Inteligencia Artificial

Algunos compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de IA, aunque no se detalla quién auditará la tecnología o responsabilizará a las empresas
Por REDACCIÓN/Diario Las Américas

WASHINGTONAmazon, Google, Meta, Microsoft y otras compañías, que encabezan el desarrollo de tecnología de inteligencia artificial (IA), acordaron -bajo ningún término legal- cumplir con ciertas medidas de seguridad de IA negociadas por asesores de la Casa Blanca.

La Oficina Oval informó el viernes que ha obtenido compromisos voluntarios de siete empresas estadounidenses para supuestamente que sus productos de IA sean seguros antes de lanzarlos. Pero eso nadie lo garantiza legalmente, y mucho menos que se cumplan esas supuestas medidas.

Algunos de los compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de IA, aunque no se detalla quién auditará la tecnología o responsabilizará a las empresas, es decir, todo queda en un limbo.

El aumento de la inversión comercial en herramientas de IA generativa capaces de escribir textos convincentemente similares a los de los humanos y producir nuevas imágenes y otros medios ha despertado la fascinación de algunos, pero también preocupación por su capacidad para engañar a las personas y difundir desinformación, entre otros peligros.

Los cuatro gigantes tecnológicos, junto con OpenAI, el fabricante de ChatGPT, y las nuevas empresas Anthropic e Inflection, se comprometieron a llevar a cabo pruebas de seguridad “realizadas en parte por expertos independientes” para protegerse contra los principales riesgos, como la bioseguridad y la ciberseguridad, indicó la Casa Blanca en un comunicado.

Las empresas también se han comprometido con los métodos para reportar las vulnerabilidades de sus sistemas y con el uso de marcas de agua digitales para ayudar a distinguir entre las imágenes reales y las generadas por IA, conocidas como deepfake —imágenes manipuladas digitalmente. Pero hasta el momento sólo son compromisos.

También informarán públicamente sobre fallas y riesgos en su tecnología, incluyendo los efectos sobre la equidad y el sesgo, de acuerdo con la Casa Blanca.

Los compromisos voluntarios pretenden ser una forma inmediata de abordar riesgos antes de un impulso a largo plazo para lograr que el Congreso estadounidense apruebe leyes que regulen la tecnología.

Algunos defensores de las regulaciones de IA afirman que la medida de Biden es un comienzo, pero se necesita hacer más para responsabilizar a las empresas y sus productos.

La historia indica que muchas empresas de tecnología en realidad no se comprometen voluntariamente a actuar de manera responsable y respaldar regulaciones estrictas”, dijo James Steyer, fundador y director ejecutivo de la organización sin fines de lucro Common Sense Media, en un comunicado.

Legisladores demócratas y republicanos en el Congreso preparan una propuesta de ley que regule la IA. Líderes de ambas Cámaras han tenido varias sesiones informativas con expertos funcionarios del gobierno para educar a los legisladores sobre un tema que atrae el interés bipartidista.

Pero a algunos expertos y competidores emergentes les preocupa que el tipo de regulación que se propone podría ser una bendición para los pioneros con mucho dinero liderados por OpenAI, Google y Microsoft, ya que compañías más pequeñas se ven desplazadas por el alto costo de hacer que sus sistemas de IA sean conocidos como modelos de lenguaje que se adhieran a las restricciones regulatorias.

FUENTE: Con informacin de AP

¡Recibe las últimas noticias en tus propias manos!

Descarga LA APP

Deja tu comentario

Te puede interesar