Las deliberaciones sobre el uso incontrolado de la inteligencia artificial (IA) han dominado durante mucho tiempo el discurso tecnológico y, ahora, cientos de líderes y organizaciones mundiales han dado un paso decisivo para gestionar este dilema. El lunes, más de 200 ex jefes de Estado, diplomáticos, premios Nobel, especialistas en IA e investigadores, entre otros, unieron sus filas para proponer un acuerdo internacional sobre las "líneas rojas" que la IA no debería cruzar nunca. Entre las limitaciones sugeridas está la prohibición de que la IA se haga pasar por seres humanos o se replique a sí misma.
Junto con más de 70 organizaciones dedicadas a la IA, estas luminarias han respaldado la iniciativa Global Call for AI Red Lines. La iniciativa insta a los gobiernos de todo el mundo a establecer una aceptación de estas "líneas rojas" para la IA antes de finales de 2026. Entre los firmantes de alto perfil se encuentran Geoffrey Hinton, informático británico-canadiense; Wojciech Zaremba, cofundador de OpenAI; Jason Clinton, CISO de Anthropic; e Ian Goodfellow, investigador científico de Google DeepMind.
Según Charbel-Raphaël Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA (CeSIA), el objetivo de esta iniciativa es abordar los riesgos asociados a la IA de forma proactiva, en lugar de responder únicamente después de un incidente significativo. Subrayó la necesidad de llegar a un acuerdo, afirmando: "Si las naciones aún no pueden ponerse de acuerdo sobre lo que quieren hacer con la IA, al menos deben ponerse de acuerdo sobre lo que la IA no debe hacer nunca".
Esta iniciativa llega en vísperas de la 80ª semana de alto nivel de la Asamblea General de las Naciones Unidas en Nueva York. La iniciativa fue encabezada por CeSIA, la Future Society y el Centro de Inteligencia Artificial Humanamente Compatible de la Universidad de Berkeley. Durante la asamblea, la Premio Nobel de la Paz Maria Ressa hizo referencia a la iniciativa en su discurso de apertura, abogando por la responsabilidad global para frenar la impunidad de las grandes tecnológicas.
Aunque ya existen "líneas rojas" regionales para el uso de la IA, como la Ley de IA de la Unión Europea y un acuerdo entre EE.UU. y China para que las armas nucleares permanezcan bajo control humano, sigue faltando un consenso mundial. Niki Iliadis, director de gobernanza mundial de la IA en The Future Society, sostiene que, en última instancia, se necesita una institución mundial independiente con autoridad ejecutiva para establecer, supervisar y mantener estas líneas rojas. "La responsabilidad tiene que ser algo más que un compromiso voluntario", añadió.
Pero la llamada a la cautela no significa ahogar la innovación o el crecimiento económico, como sostienen algunos escépticos. Stuart Russell, catedrático de Informática de la Universidad de Berkeley y uno de los principales investigadores en IA, estableció un paralelismo entre la emergente industria de la IA y los primeros días de la energía nuclear. En su opinión, "pueden cumplir las normas no construyendo inteligencia artificial hasta que sepan cómo hacerla segura, del mismo modo que los promotores de la energía nuclear no construyeron centrales nucleares hasta que tuvieron alguna idea de cómo evitar que explotaran".
Según Russell, podemos aprovechar el poder de la IA para el desarrollo económico sin dar rienda suelta a una inteligencia general avanzada (AGI) que no podemos controlar. "Esta supuesta dicotomía, si quieres un diagnóstico médico entonces tienes que aceptar la AGI que destruye el mundo - simplemente creo que es una tontería", dijo.
En una era perturbada y potenciada por la IA, el Llamamiento Mundial a las Líneas Rojas de la IA pretende trazar un equilibrio entre el vasto potencial de la tecnología y los riesgos inherentes, haciendo un llamamiento a un consenso internacional que rija el uso prudente de la IA. Sin embargo, este llamamiento inicial no es más que el primer paso hacia una gobernanza mundial de la IA. Queda por ver cómo responderán los gobernantes a este llamamiento.