Menú Cerrar

iOS 26.4: Siri se vuelve más lista y la salud gana peso en el iPhone


4.7/5 - (109 votos)

Un nuevo cerebro para siri en ios 26.4

Durante años, Siri ha sido una presencia constante en el iPhone, pero su papel se había quedado en algo bastante rutinario: útil para tareas simples, poco determinante cuando el usuario necesitaba algo más complejo. Con iOS 26.4, Apple cambia el enfoque y empieza a recolocar a su asistente, no tanto con funciones llamativas aisladas, sino alterando de raíz cómo entiende lo que le pedimos.

La compañía no lo vende como un Siri completamente nuevo, pero sí como un asistente distinto en comportamiento, ambición y capacidad de comprensión. Esta actualización de primavera se perfila como una de las más relevantes de los últimos tiempos en materia de inteligencia artificial dentro de iOS, con un impacto especial para quienes usan el iPhone en España y en el resto de Europa, donde el sistema comienza a reaccionar de forma más “inteligente” y menos mecánica.

La transición hacia modelos de lenguaje de gran tamaño

Hasta ahora, el asistente de Apple funcionaba como una cadena de módulos que respondían a órdenes muy concretas: convertía la voz en texto, buscaba coincidencias con una lista de intenciones predefinidas y lanzaba una acción en el sistema. Era suficiente para poner una alarma, añadir un recordatorio o llamar a un contacto, pero se quedaba corto cuando la petición requería varios pasos seguidos o un contexto más rico.

Con la llegada de iOS 26.4, el enfoque cambia: Siri pasa a estar construido alrededor de modelos de lenguaje de gran tamaño (LLM), una tecnología similar a la que impulsa servicios como ChatGPT, Claude o Gemini. El objetivo no es convertir el iPhone en un chatbot de conversación infinita, sino dotar al asistente de una comprensión más profunda del lenguaje natural, capaz de captar matices, referencias implícitas y relaciones entre diferentes elementos de la petición.

En esta nueva etapa, el sistema deja de fiarlo todo al reconocimiento de voz y a la búsqueda de palabras clave exactas. El asistente comienza a razonar primero sobre la intención de la persona y, a partir de esa interpretación, decide qué acciones debe encadenar dentro del sistema. Apple define internamente este diseño como un enfoque “LLM-first”: el modelo de lenguaje es el eje central y las APIs de iOS se convierten en herramientas que el modelo va llamando según lo que se quiera lograr.

Según la información disponible, Apple se apoya en sus Foundation Models v10 de nueva generación, diseñados específicamente para integrarse a bajo nivel en el iPhone. Gracias a estos modelos, el asistente puede tratar correos electrónicos, mensajes, documentos y páginas web como contenido estructurado con secciones y datos, y no como un simple bloque de texto plano, algo que limita claramente a la Siri de iOS 26.3.

Además, el fabricante complementa esta base con una integración selectiva de la tecnología de Google Gemini para determinadas tareas de razonamiento más avanzado. La idea es que el sistema pueda analizar mejor el contexto, sin depender tanto de reglas rígidas o de plantillas de comandos cerradas, respetando al mismo tiempo las restricciones de privacidad que se exigen en la Unión Europea.

Siri gana contexto: datos personales, pantalla y apps conectadas

Para el usuario medio en Europa, el salto no se verá tanto en un modo de charla infinita con el móvil, sino en cómo Siri aprovecha el contexto personal y lo que hay en la pantalla para ayudar de forma más útil en el uso diario del iPhone. Aquí confluyen tres pilares: datos del usuario, contenido visible y encadenado de acciones entre aplicaciones.

En primer lugar, el asistente en iOS 26.4 puede apoyarse con más soltura en la información almacenada en el propio dispositivo —correos, mensajes, archivos, fotos— cuando se le pide algo concreto. Solicitudes como “búscame el documento que me envió mi jefa el jueves” o “enséñame el recibo que escaneé hace un par de semanas” pasan a depender menos de fórmulas exactas y a resolverse con mayor precisión.

En segundo lugar, Siri se vuelve más consciente de lo que el usuario tiene abierto en la pantalla en cada momento. Eso significa que puede interpretar un mensaje, una dirección, una imagen o una página web y actuar directamente sobre ese contenido: añadir un dato a un contacto, guardar una dirección en Mapas, reenviar la foto que se está viendo o rescatar información relevante sin necesidad de copiar y pegar entre apps.

El tercer elemento clave es una integración más profunda con las aplicaciones y servicios del sistema. iOS 26.4 permite al asistente encadenar operaciones que antes el usuario hacía paso a paso: editar una imagen y compartirla inmediatamente en una conversación, mover ficheros entre apps de productividad, preparar un correo con información tomada de un documento o agrupar varias acciones dentro de un mismo flujo.

Con esta combinación, Siri empieza a comportarse menos como un asistente “reactivo” que solo responde a órdenes aisladas y más como una capa de inteligencia que conecta distintas piezas del sistema operativo. Aunque todavía no se habilite un diálogo completamente continuo o un modo conversacional avanzado —algo que Apple probablemente reserve para futuras versiones—, sí se nota un uso más coherente del contexto en cada interacción.

Qué cambia frente a ios 26.3

En la versión anterior, iOS 26.3, el asistente se basaba sobre todo en modelos de intención con listas de frases y comandos cerrados. El sistema identificaba qué orden se parecía más a lo que el usuario decía y lanzaba la acción asociada. Funcionaba, pero resultaba rígido y fácil de “romper” si uno se salía de la frase esperada.

Con iOS 26.4, la prioridad pasa a ser entender el propósito de lo que se pide, no solo la etiqueta técnica de la acción. El sistema trata de descifrar qué quiere lograr la persona al hablar con Siri, aunque la frase no coincida con un comando exacto, y a partir de ahí decide qué aplicaciones y funciones deben intervenir.

Este cambio se traduce en varios comportamientos concretos. Por ejemplo, el asistente es capaz de mantener mejor el contexto entre varias peticiones relacionadas, en lugar de interpretar cada orden como algo totalmente aislado. Si se le pide que lea un correo y, a continuación, se dice “respóndele que me parece bien”, el sistema entiende a qué mensaje nos referimos sin tener que repetir todos los detalles.

También mejora la capacidad de trabajar con documentos, correos y páginas web como estructuras con campos y relaciones internas. Esto facilita encontrar datos muy concretos —una fecha, un nombre, una cantidad— dentro de un contenido largo. En iOS 26.3, estas operaciones dependían de reglas bastante más rígidas y, en la práctica, los resultados podían ser irregulares.

En conjunto, estos ajustes van componiendo a Siri como una especie de orquestador de acciones dentro de iOS 26.4, en lugar de un simple lanzador de comandos. No se trata de una revolución visible en la interfaz, pero sí de una diferencia notable para quienes usan mucho la voz o las sugerencias inteligentes del iPhone.

Por qué apple ha dado este giro ahora

El movimiento que ahora llega con iOS 26.4 no aparece de la nada. En encuentros internos, responsables como Craig Federighi han admitido que la compañía intentó durante un tiempo combinar la arquitectura clásica de Siri con un sistema moderno de modelos de lenguaje, y que esa mezcla no terminaba de funcionar ni a nivel técnico ni de mantenimiento.

El diseño anterior trataba de superponer un modelo más avanzado encima de una base construida hace años, con múltiples capas y servicios independientes. Esa aproximación chocó con límites claros, y llevó a la decisión de reconstruir el asistente alrededor de un único modelo central, en vez de mantener dos sistemas intentando entender al usuario en paralelo. iOS 26.4 es la primera versión en la que ese rediseño profundo se hace notar de forma visible.

Además, este cambio llega tras un periodo en el que usuarios de distintos mercados, incluidos europeos, reclamaron funciones de IA anunciadas con antelación que se retrasaron o se recortaron sobre la marcha. Algunas de esas decisiones dieron pie a quejas formales y a un escrutinio más intenso sobre cómo Apple comunica las novedades de sus sistemas.

En paralelo, la compañía ha cerrado un acuerdo plurianual con Google para utilizar partes de la tecnología Gemini en tareas puntuales de razonamiento, mientras continúa desarrollando y entrenando sus propios modelos. Apple insiste en que la prioridad sigue siendo la privacidad: buena parte del procesamiento se hace en el propio dispositivo y, cuando se recurre a la nube, se hace a través de Private Cloud Compute, con datos anonimizados y protegidos para ajustarse a la normativa europea.

Esta combinación de presión competitiva, expectativas de los usuarios y necesidad de modernizar la infraestructura de Siri ha empujado a la empresa a acelerar la transición hacia un asistente más flexible e inteligente en iOS 26.4. Aun así, Apple prefiere que el salto más radical en capacidades conversacionales se produzca de forma gradual para garantizar la calidad y la privacidad en cada paso.