Crónica España.

Crónica España.

Iniciativa mundial propone establecer límites para la IA y mitigar riesgos significativos.

Iniciativa mundial propone establecer límites para la IA y mitigar riesgos significativos.

En un evento clave que tuvo lugar en Nueva York, un grupo prominente de líderes políticos, académicos y expertos tecnológicos han dado un paso audaz al lanzar la iniciativa global 'Call for AI Red Lines'. La propuesta establece la necesidad de un consenso internacional que delimite ciertas "líneas rojas" para el desarrollo y uso de tecnologías de inteligencia artificial (IA), con el fin de mitigar riesgos potencialmente devastadores que podrían amenazar la humanidad.

A pesar de los notables avances en inteligencia artificial que prometen transformar la vida cotidiana y elevar el bienestar social, existe una creciente preocupación acerca de los peligros que estas tecnologías pueden acarrear. Por lo tanto, la creación de 'Call for AI Red Lines' busca establecer límites claros sobre cómo y dónde se puede aplicar la IA, protegiendo así la integridad y seguridad de las personas.

La propuesta fue presentada durante la 80ª Asamblea General de las Naciones Unidas, con la dirección del Centro Francés para la Seguridad de la IA (CeSIA) y apoyada por organizaciones como la Future Society y el Centro de Inteligencia Artificial Compatible con Humanos de la Universidad de California en Berkeley. Más de 200 líderes de la industria, 70 organizaciones, diez Premios Nobel y ocho exjefes de Estado se han sumado a esta causa global.

Entre los destacados firmantes figuran figuras de renombre en el campo de la tecnología, como Wojciech Zaremba de OpenAI y Geoffrey Hinton, reconocido por su trabajo en inteligencia artificial. La iniciativa subraya la urgencia de que los gobiernos lleguen a un acuerdo político internacional sobre estas "líneas rojas" antes de que conclya 2026, con mecanismos rigurosos para su cumplimiento.

La presión para implementar estos límites se basa en la anticipación de peligros inminentes, que incluyen la posibilidad de que la IA supere la inteligencia humana y cause crisis en áreas como la salud pública, la difusión de información errónea y la manipulación masiva. Se teme que también pueda agravar problemas existentes, como el desempleo y las violaciones de derechos humanos.

A pesar de que ya se han identificado riesgos asociados a ciertos sistemas de IA, los firmantes advierten que se sigue otorgando a estas tecnologías más autonomía sin el control necesario. "Si no se establecen regulaciones ahora, la supervisión humana se volverá cada vez más difícil en el futuro", advirtieron desde la iniciativa.

El objetivo principal es anticipar y prevenir posibles crisis de gran escala. El director ejecutivo del CeSIA, Charbel-Raphaël Segerie, enfatizó que las naciones deben consensuar lo que la IA no debe hacer, en lugar de reaccionar tras eventos adversos significativos.

Desde la organización también se ha aclarado que las líneas rojas deben enmarcarse dentro de normas internacionales existentes y compromisos de las empresas, asegurando que todos los proveedores de IA se alineen con estándares comunes que promuevan la seguridad.

Sin embargo, la directora de gobernanza global de IA en The Future Society, Niki Iliadis, enfatizó que a largo plazo se requerirá de más que compromisos voluntarios. Según ella, se necesita una entidad robusta que establezca y haga cumplir estas pautas.

El profesor Stuart Russell, de la Universidad de California en Berkeley, comparó la necesidad de un desarrollo seguro en IA con la evolución de la energía nuclear. Afirmó que así como no se construyeron reactores nucleares sin un plan de seguridad, la industria de la IA debe adoptar un enfoque que priorice la seguridad desde su inicio.

Entre las líneas rojas propuestas se encuentra la prohibición de delegación de autoridad en el lanzamiento de armas nucleares o decisiones críticas. Adicionalmente, se plantea la prohibición de usar IA para sistemas de armas autónomas sin un control humano significativo, así como su utilización en la vigilancia masiva y las técnicas de suplantación de identidad.

Otros aspectos destacados incluyen la prohibición de la autorreplicación autónoma y la exigencia de que cualquier sistema de IA desarrollado deba ser desactivable de inmediato en caso de pérdida de control.

En conclusión, la iniciativa 'Call for AI Red Lines' busca establecer un marco de seguridad y responsabilidad en el desarrollo de la IA, abordando las preocupaciones sobre su impacto potencial en la sociedad y la necesidad de evitar cualquier utilización que amenace el bienestar común.