Crónica España.

Crónica España.

Apple integrará su propio modelo de lenguaje en los iPhone de iOS 18 para potenciar la inteligencia artificial, según Gurman

Apple integrará su propio modelo de lenguaje en los iPhone de iOS 18 para potenciar la inteligencia artificial, según Gurman

Apple está en proceso de potenciar las capacidades de Inteligencia Artificial (IA) en iOS 18 con un modelo de lenguaje de gran tamaño (LLM) diseñado internamente y que estará integrado en los iPhones, permitiendo que las funciones se procesen en el dispositivo sin necesidad de acceder a la nube, priorizando así la privacidad.

La empresa tecnológica con sede en Estados Unidos está trabajando en la implementación de nuevas características basadas en IA para el lanzamiento de la próxima actualización de su sistema operativo iOS 18. Se ha informado que Apple está negociando con Google para integrar el motor de IA generativa, Gemini, en sus iPhone mediante actualizaciones de software a finales de este año.

Apple se enfoca en introducir mejoras orientadas a las funciones que se pueden utilizar en sus dispositivos, en lugar de aquellas que dependen de la nube. Por lo tanto, busca que la IA pueda, por ejemplo, crear imágenes o redactar ensayos basados en indicaciones simples desde el propio dispositivo.

Según ha compartido el analista de Bloomberg, Mark Gurman, en su último boletín informativo Power On, Apple tiene previsto potenciar las funciones de IA de iOS 18 con un modelo LLM interno, capaz de funcionar de forma integrada procesando las funciones directamente desde el dispositivo y sin necesidad de utilizar la nube.

Al funcionar de manera 'offline', las funciones de IA pueden ejecutarse de forma privada y segura en el iPhone, ya que la información y los datos utilizados no saldrán del dispositivo. Además, las funciones serán más rápidas al no depender de conexiones externas.

En este contexto, Apple está trabajando en un 'chatbot' al que se refiere como Ajax, desafiando a otras empresas en el sector, como Google y OpenAI. Además, la unidad de Apple dedicada a Foundational Models sigue desarrollando herramientas conversacionales, incluyendo una para la inteligencia visual y el 'chatbot' Ajax, invirtiendo millones de dólares diariamente en ello.

Recientemente se ha revelado que los investigadores de Apple han creado un modelo de lenguaje llamado RealLM, que, a pesar de tener menos parámetros que GPT4 desarrollado por OpenAI, ofrece un rendimiento similar en la comprensión de referencias ambiguas cuando interactúa con el usuario. Este modelo mejora la naturalidad de la conversación al permitir que la IA comprenda referencias ambiguas del lenguaje humano, como "eso" o "este", que se entienden según el contexto pero que los asistentes de IA no logran comprender.

A pesar de algunas limitaciones de los LLM integrados en dispositivos, como la falta de parámetros de entrenamiento en comparación con los modelos en la nube, Apple se encuentra trabajando en nuevas herramientas y tecnologías para implementar funciones de IA directamente en los iPhone.

Apple anunciará sus novedades en cuanto a la IA y los modelos de lenguaje en su próxima Conferencia Mundial de Desarrolladores (WWDC) de 2024, que se llevará a cabo del 10 al 14 de junio.