Evaluación de IA: Solo Google DeepMind, Anthropic y OpenAI superan el estándar de seguridad, revela estudio.
En un reciente estudio independiente, solo tres de las principales firmas en el campo de la inteligencia artificial, a saber, Google DeepMind, Anthropic y OpenAI, han logrado obtener una evaluación aceptable en aspectos de seguridad. Este análisis tiene como objetivo esclarecer si las promesas de estas corporaciones son realmente coherentes con su implementación práctica.
Las ocho entidades más destacadas actualmente en el desarrollo de IA avanzada son Anthropic, Alibaba Cloud, DeepSeek, Google DeepMind, Meta, OpenAI, xAI y Z.ai. Estas empresas están a la vanguardia del avance tecnológico, propiciando la creación de modelos de inteligencia artificial de alto rendimiento, que presentan una serie de potenciales beneficios y riesgos para la sociedad.
A medida que la adopción de estas tecnologías avanza de manera significativa, es evidente que la regulación aún está en sus etapas iniciales. La Unión Europea, por ejemplo, ha comenzado a implementar su propia Ley de IA para tratar de poner orden en este espacio, que responde a una doble cara de oportunidades y desafíos.
Las compañías mencionadas han subrayado su compromiso con la seguridad, promoviendo su labor para mitigar riesgos que van desde la desinformación hasta problemas de salud mental. No obstante, la sencilla declaración de intenciones no será suficiente para el Future of Life Institute, que insta a las empresas a ir más allá de la retórica y a implementar salvaguardias tangibles y verificables.
El análisis elaborado por un equipo de expertos de la organización destaca que, aunque Google DeepMind, Anthropic y OpenAI logran una aprobación mínima, no están a la altura de los estándares deseables, dejando a otras compañías como Z.ai, xAI, Meta, Alibaba Cloud y DeepSeek relegadas en el ámbito de la gestión de riesgos y la transparencia.
Las disparidades en la evaluación de riesgos y en las prácticas de seguridad son preocupantes; a menudo, las empresas muestran una divulgación insuficiente, una evidencia poco convincente de sistemas de seguridad y una presión desigual para seguir los mejores estándares en la materia.
En términos de seguridad existencial, donde se evalúan los esfuerzos realizados para evitar el surgimiento de una IA autoconsciente, ninguna firma muestra un rendimiento satisfactorio. De todas ellas, Anthropic destaca ligeramente gracias a su notable transparencia y un marco de seguridad mejor estructurado, que incluye un fuerte incentivo hacia la investigación y un compromiso público con la gobernanza, en línea con la legislación que está en camino.
Sin embargo, es crucial señalar que ninguna de estas empresas cumple con los estándares globales planteados. A pesar de que hay un alineamiento parcial con normativas emergentes, la implementación aún carece de la profundidad y calidad necesarias. Esto pone de manifiesto que las prácticas de seguridad están lejos de alcanzar el rigor y la transparencia que exige el protocolo del Código de prácticas de IA de la UE.
Es importante recordar que esta investigación se llevó a cabo con datos recogidos hasta el 8 de noviembre, por lo que no considera los últimos modelos lanzados por algunas de estas compañías, como Gemini 3 Pro de Google DeepMind y Claude Opus 4.5 de Anthropic, entre otros.
Categoría:
Newsletter
Entérate de las últimas noticias cómodamente desde tu mail.