17/04/2026Contacto
×
Tecnología 9 de Abril de 2026 · 17:21h 2 min de lectura

Hackean el LLM de Apple Intelligence mediante inyección de instrucciones y Unicode

Investigadores de RSAC Research han logrado vulnerar la seguridad del modelo de lenguaje local de Apple Intelligence, mediante técnicas de inyección de instrucciones y manipulación de Unicode. En diciembre de 2025, aproximadamente 200 millones de dispositivos Apple en todo el mundo tenían capacidad para usar esta plataforma de inteligencia artificial generativa integrada en sistemas y aplicaciones.

Apple Intelligence combina dos modelos de lenguaje grande: uno que opera en el dispositivo y otro alojado en la nube privada. La seguridad del modelo local, que interactúa directamente con usuarios y aplicaciones, se basa en una API que aplica políticas de control y filtros. Sin embargo, los investigadores demostraron que mediante técnicas adversarias, como el uso de Unicode en reversa, lograron engañar estos filtros en más del 76% de los casos de prueba.

Estos hallazgos ponen en evidencia vulnerabilidades en los mecanismos de protección implementados por Apple, que podrían ser explotadas para generar salidas no deseadas o maliciosas. La compañía respondió reforzando la seguridad en las versiones más recientes de iOS y macOS, aunque no hay constancia de que esta vulnerabilidad haya sido explotada en la práctica.

La posibilidad de manipular modelos de inteligencia artificial local presenta implicaciones relevantes en un contexto en el que el uso de estas tecnologías se expande rápidamente en dispositivos de consumo y entornos profesionales. La dependencia de filtros automáticos y la dificultad para detectar entradas adversarias complican la protección de estos sistemas.

Desde una perspectiva más amplia, estos incidentes evidencian la necesidad de revisar las políticas de seguridad en la integración de inteligencia artificial en productos de consumo. La evolución de las técnicas de ataque requiere una actualización constante de las medidas defensivas y una mayor transparencia por parte de las empresas tecnológicas.

El avance en la vulnerabilidad y su posterior mitigación reflejan el reto actual de garantizar la integridad y seguridad de los sistemas de IA integrados en dispositivos cotidianos. La confianza en estas tecnologías dependerá en buena medida de la capacidad de las empresas para prever y responder a estas amenazas futuras.

Categoría

Noticias relacionadas

Recibe las noticias de España en tu email

Este sitio usa cookies propias y de terceros. Más info