Así funciona Apple Intelligence, la IA de Apple
La inteligencia artificial reunirá varias herramientas y opciones de aprendizaje automático que se estrenarán en Estados Unidos en otoño.
Apple ha anunciado en la conferencia de desarrolladores WWDC su estrategia para integrar herramientas de inteligencia artificial generativa en sus dispositivos. Es ligeramente diferente a la que están utilizando competidores como Google o Microsoft y su despliegue será gradual. En un primer momento sólo estará disponible en inglés y en EEUU, y comenzarán a aparecer en los productos de la compañía en otoño. A partir del próximo año, se irán expandiendo a otros territorios.
Apple no va a usar un único modelo de lenguaje (como se conoce la tecnología que hace posible aplicaciones como ChatGPT). Tampoco tendrá un servicio o aplicación concreta con la que acceder a estas funciones. Apple Intelligence, que es como se conoce esta estrategia, es en realidad un conjunto de herramientas y opciones dentro de las diferentes aplicaciones (tanto las de Apple como las de terceros) y del sistema operativo que ampliarán las capacidades que ya tenían los iPhone, iPads y Macs.
Incluye cosas que ya hacían estos dispositivos (en el iPhone ya hay más de 200 rutinas de aprendizaje automático que se encargan de tareas como la organización de fotos o la predicción de texto, por ejemplo), pero también nuevas posibilidades y funciones que sólo estarán disponibles en los modelos más avanzados, los ordenadores e iPads con procesador M o los iPhone con procesador A17 (el del iPhone 15 Pro).
Esta multitud de modelos y rutinas es clave para entender lo que pretende Apple. La mayoría de las funciones de Apple Intelligence podrán ejecutarse en los propios dispositivos, de forma local y sin enviar información personal a servidores externos. Lo harán usando dos modelos de lenguaje propios que ha creado Apple y que serán diferentes y especializados para cada tarea.
"Hemos puesto una cantidad considerable de energía en entrenar estos modelos y lo hemos hecho con datos que hemos seleccionado muy cuidadosamente", explica John Giannandrea, vicepresidente de Inteligencia Artificial y aprendizaje automático.
Esta obsesión por el control obedece a un intento deliberado por parte de Apple de evitar los resultados más problemáticos de este tipo de herramientas. Apple Intelligence no se manifiesta en aplicaciones tan abiertas como puede ser ChatGPT e incluso algunas de sus utilidades, como el generador de imágenes, son muy limitadas en el tipo de ilustraciones que pueden crear. "Queremos ofrecer experiencias significativas y útiles de manera fiable, aprovechando las fortalezas de los modelos y no sus debilidades".
Cuando una tarea requiera más potencia, Apple también recurrirá a servidores propios con un tercer modelo más potente y lo que denomina una "nube privada". El dispositivo seleccionará los datos y la información que necesita para trabajar en la solución del problema y los enviará a un conjunto de servidores de forma anónima para procesarlos.
Estos servidores, gestionados por Apple, no almacenan los datos y utilizan varias técnicas de protección y seguridad que garantizan que nadie pueda acceder a ellos durante el procesado. Contarán con novedosos sistemas de auditoría de seguridad.
¿Qué pasa con ChatGPT? Apple también dedicó parte de la conferencia a hablar de un acuerdo con OpenAI para integrar los modelos de lenguaje de la compañía en Apple Intelligence pero sólo se usarán para casos muy puntuales.
Si el usuario quiere información sobre un dominio o tema en el que los modelos de Apple no han sido entrenados o respuestas a preguntas más abiertas, Siri puede funcionar como una interfaz para acceder a los modelos de OpenAI. En este caso, Siri pregunta al usuario si quiere enviar la información a un servicio de terceros, aunque es algo que puede bloquearse si el usuario así lo desea.
La idea de Apple es que, en el futuro, otros modelos de lenguaje se integren también con este sistema. Por ejemplo, un usuario puede estar interesado en integrar un modelo muy avanzado entrenado específicamente en información médica, una alternativa a ChatGPT como puede ser el modelo de lenguaje Gemini de Google, o modelos abiertos como Llama, de Meta. Por lo que Siri (y Apple Intelligence) funcionaría como intermediario.
Una de las ventajas de este sistema, en el caso de ChatGPT, es que no hace falta crear una cuenta en el servicio, aunque puede asociarse una existente si se quiere acceder a funciones más avanzadas.
¿Qué se puede hacer con Apple Intelligence?
Apple Intelligence tiene muchas caras y la mayoría de los usuarios lo usará prácticamente a diario en sus dispositivos. Estas son algunas de las herramientas y servicios que incluye:
- Siri: Una de las aplicaciones que más se beneficiará será, obviamente, Siri. Tendrá una nueva interfaz que ilumina por completo el marco del teléfono y podrá utilizarse escribiendo texto en una ventana, no sólo mediante voz. El asistente virtual de Apple podrá realizar tareas más complejas y utilizar información contextual y personal para sus respuestas. Esto quiere decir que tendrá en cuenta la información de varias fuentes, como la aplicación de calendario o correos y el propio texto en pantalla. A partir del próximo año, también podrá controlar aplicaciones como si fuera el usuario.
- Texto: La gran mayoría de las aplicaciones (todas las de Apple y las de desarrolladores terceros que usen las APIs comunes del sistema) podrán resumir texto o reescribirlo usando los modelos propios de Apple. La compañía también permitirá usar modelos de terceros como ChatGPT y en algunos casos, si el usuario así lo prefiere, crear texto.
- Generación de imagenes: Hay dos herramientas fundamentales para la generación de imágenes. La primera es Genmoji, que permite crear emojis personalizados para usar en conversaciones de iMessage y correos. La segunda es Image Playgrounds, que genera imágenes a partir de descriptores simples en tres estilos diferentes (boceto, ilustración o animación 3D). Apple también ha creado una "varita mágica" que permite sustituir ilustraciones hechas a mano por modelos generados mediante inteligencia artificial. No son herramientas tan avanzadas como Midjourney o Dall-e pero tienen la ventajas de ser gratuitas y funcionar en local.
- Notificaciones: Un nuevo sistema de clasificación de notificaciones detectará la importancia de un aviso según el texto y le dará prioridad frente a otros mensajes dentro del sistema si éste decide que es relevante para el usuario. Apple Intelligence también podrá resumir el contenido de correos y mensajes en una línea de texto para dar una idea del contenido sin tener que abrirlos.
- Organización de fotos y vídeo: Por último, Apple ha añadido varias opciones de organización y categorización inteligente a la app Fotos. Ahora puede crear diapositivas de forma automática a partir de una colección de imágenes o simplemente el nombre de una persona, dandole una estructura narrativa y sugiriendo música. Gracias a la IA, también será posible buscar un momento concreto en un vídeo simplemente describiendo una escena. Como en otras plataformas, Apple Intelligence también dará mejores opciones de edición en fotografía, con herramientas como eliminación rápida de personas en el fondo de una imagen.
FUENTE: de Luis Jiménez, Ángel. ''Así funciona Apple Intelligence, la IA de Apple'' Elmundo.es. 11/06/2024. (https://www.elmundo.es/tecnologia/2024/06/11/6667e37ce85ece95438b45ac.html).