17/04/2026Contacto
×
Tecnología 9 de Abril de 2026 · 17:21h 3 min de lectura

Vulnerabilidad en el LLM de Apple Intelligence pone en riesgo la seguridad de millones de dispositivos

En diciembre de 2025, aproximadamente 200 millones de dispositivos Apple en todo el mundo tenían integradas funciones de inteligencia artificial a través de Apple Intelligence, un ecosistema que combina modelos de lenguaje locales y en la nube para ofrecer funcionalidades avanzadas en sistemas operativos y aplicaciones. Recientemente, investigadores de RSAC Research lograron vulnerar las medidas de seguridad del modelo de menor tamaño, que opera de manera local en los dispositivos, mediante técnicas de inyección de instrucciones conocidas como 'prompt injection'.

Este hallazgo se produce en un contexto donde la regulación de la inteligencia artificial en la Unión Europea, a través del Reglamento de IA, busca establecer marcos más estrictos para garantizar la seguridad y la protección de datos, especialmente en tecnologías que impactan en la privacidad y la seguridad de los usuarios. La reciente vulnerabilidad, detectada en un entorno de pruebas, evidencia las dificultades de los fabricantes para garantizar la seguridad en sistemas de IA integrados en dispositivos de consumo masivo en un entorno geopolítico marcado por tensiones entre EE. UU. y China, que complica la cooperación internacional en regulación y desarrollo de estas tecnologías.

Los investigadores demostraron que, mediante el uso de técnicas avanzadas de entrada adversaria, como la utilización de Unicode y codificación en reversa, lograron engañar al sistema para que ejecutara acciones no autorizadas en un nivel de éxito del 76%. La vulnerabilidad afecta a la API Foundation Models Framework, que supervisa y filtra las interacciones del modelo, aunque Apple reforzó la seguridad en las versiones más recientes del sistema operativo tras estos hallazgos.

Este incidente pone en evidencia la fragilidad de los sistemas de IA en dispositivos de uso cotidiano y genera preocupaciones sobre la posible explotación de vulnerabilidades similares en otros ecosistemas tecnológicos, especialmente en un contexto donde la dependencia de la inteligencia artificial crece en ámbitos gubernamentales, militares y empresariales.

El debate político en España y en la Unión Europea se centra en cómo equilibrar la innovación en IA con la protección de derechos y la seguridad nacional, ante el riesgo de que vulnerabilidades como esta puedan ser explotadas con fines maliciosos o para influir en procesos electorales, o incluso para manipular información pública.

En un contexto más amplio, estos incidentes reflejan los desafíos globales en la regulación y seguridad de la inteligencia artificial, que requieren una cooperación internacional más estrecha para establecer estándares y protocolos que garanticen la protección de los usuarios y la estabilidad del entorno digital.

Categoría

Noticias relacionadas

Recibe las noticias de España en tu email

Este sitio usa cookies propias y de terceros. Más info